مايكروسوفت تمنع استخدام الشرطة لأداة الذكاء الاصطناعي لتعرف الوجه
أكدت مايكروسوفت مجددًا حظر استخدام أقسام الشرطة الأمريكية للذكاء الاصطناعي التوليدي لتعرف الوجه من خلال Azure OpenAI، وهي خدمة الشركة المدارة بالكامل التي تركز على المؤسسات فيما يتعلق بتقنية OpenAI.
وتحظر اللغة المضافة إلى شروط خدمة Azure OpenAI عمليات التكامل مع خدمة Azure OpenAI من أجل استخدامها ضمن أقسام الشرطة لتعرف الوجه في الولايات المتحدة، ويشمل ذلك عمليات التكامل مع نماذج تحليل الصور الحالية من OpenAI.
ويغطي شرط جديد منفصل أي جهة تطبيق قانون على مستوى العالم، ويحظر صراحة استخدام تقنية تعرف الوجه في الوقت الفعلي عبر كاميرات الهواتف المحمولة، مثل كاميرات الجسم وكاميرات أجهزة القياس، لمحاولة تعرف شخص ما في مكان غير خاضع للرقابة.
وتأتي التغييرات في السياسة بعد أسبوع من إعلان الشركة المصنعة لمنتجات التكنولوجيا والأسلحة للجيش وجهات تنفيذ القانون Axon منتجًا جديدًا يستفيد من نموذج GPT-4 لتلخيص الصوت من كاميرات الجسم.
وسارع النقاد إلى الإشارة إلى المشكلات المحتملة، مثل الهلوسة والتحيزات العنصرية الناتجة عن بيانات التدريب.
وليس من الواضح إذا كانت Axon تستخدم GPT-4 عبر خدمة Azure OpenAI، أو إذا كانت السياسة المحدثة تأتي ردًا على إطلاق منتج Axon.
وقيدت OpenAI سابقًا استخدام نماذجها لتعرف الوجه من خلال واجهات برمجة تطبيقاتها.
وتترك الشروط الجديدة مجالًا للمناورة لشركة مايكروسوفت، إذ ينطبق الحظر الكامل على استخدام خدمة Azure OpenAI على الشرطة الأمريكية فقط، وليس الشرطة الدولية.
ولا تغطي الشروط الجديدة تعرف الوجه باستخدام الكاميرات الثابتة في البيئات الخاضعة للرقابة. وتتماشى هذه الشروط مع النهج السابق الذي اتبعته مايكروسوفت و OpenAI فيما يتعلق بالعقود المبرمة مع جهات تطبيق القانون المتعلقة بالذكاء الاصطناعي.
وكشفت تقارير وكالة بلومبرغ في شهر يناير أن OpenAI تعمل مع البنتاغون في عدد من المشاريع، ويشمل ذلك قدرات الأمن السيبراني.
ويعد ذلك خروجًا عن الحظر السابق الذي فرضته الشركة الناشئة فيما يتعلق بتوفير الذكاء الاصطناعي للجيوش.
في حين عرضت مايكروسوفت استخدام أداة توليد الصور بالذكاء الاصطناعي DALL-E لمساعدة وزارة الدفاع في بناء برنامج لتنفيذ العمليات العسكرية، وفقًا لموقع The Intercept.