الذّكاء التّوليديّ يميل الى التحيّز الاجتماعيّ وتقنية جديدة تصحّح الأمور

الذّكاء التّوليديّ يميل الى التحيّز الاجتماعيّ وتقنية جديدة تصحّح الأمور

ابتكر طالب دكتوراه في جامعة ولاية "أوريغون" Oregon State University وباحثون في شركة "أدوبي" Adobe تقنية تدريب جديدة تهدف إلى جعل أنظمة الذكاء الاصطناعيّ أقل تحيّزًا اجتماعيًّا.

 

أطلق إريك سليمان من كلية الهندسة بجامعة ولاية أوهايو وباحثو شركة "أدوبي" الشهيرة التي تصنع ملفّات "بي دي أف" الشائعة، على الطريقة الجديدة اسم "فير دي دوب" FairDeDup، وهي اختصار لعبارة "إلغاء البيانات المكرّرة العادلة". ويعني إلغاء البيانات المكرّرة إزالة المعلومات الزائدة عن الحاجة من البيانات المستخدمة لتدريب أنظمة الذكاء التوليديّ، ما يقلّل من تكاليف الحوسبة المرتفعة للتدريب.

وقال الباحثون إنّ مجموعات البيانات المستمدّة من الإنترنت غالباً ما تحتوي على تحيّزات موجودة في المجتمع. وحينما تُدوّن هذه التحيّزات في نماذج الذكاء التوليديّ المُدرّبة، فإنّها يمكن أن تعمل على إدامة الأفكار والسلوكيات غير العادلة.

ومن خلال فهم كيفية تأثير إلغاء البيانات المكرّرة على انتشار التحيّز، من الممكن التخفيف من التأثيرات السلبية في عمليات تدريب أنظمة الذكاء الاصطناعي. ومثلاً، لوحظ أنّ كثيراً من أنظمة الذكاء التوليدي تعرض تلقائيًا صور رجال بيض إذا طُلب منهم إظهار صورة مدير تنفيذي أو طبيب وما إلى ذلك، فيما تكون حالة الاستخدام المقصودة هي عرض تمثيلات متنوّعة للناس.

وفي ذلك الصدد، ذكر سليمان: "لقد أطلقنا عليها اسم "فير دي دوب" الذي يتضمّن تلاعباً  بكلمات تَصِفُ طريقة سابقة فعّالة من حيث التكلفة، وهي "سم دي دوب" SemDeDup، والتي قمنا بتحسينها من خلال دمج اعتبارات العدالة فيها". 

 

وأضاف سليمان، "بينما أظهر العمل السابق أنّ إزالة هذه البيانات الزائدة عن الحاجة يمكن أن يتيح تدريبًا دقيقًا للذكاء التوليديّ بموارد أقل، إلّا أنّنا وجدنا تلك العملية يمكن أن تؤدّي أيضًا إلى تفاقم التحيّزات الاجتماعية الضارّة التي يتعلمها الذكاء التوليدي غالبًا"، وبالتالي، أُضيفت اعتبارات العدالة الاجتماعية في "فير دي دوب" كي تخفض من التحيّز الاجتماعي في الذكاء التوليدي.

قدم سليمان خوارزمية FairDeDup الأسبوع الماضي في سياتل في مؤتمر IEEE/CVF حول رؤية الكمبيوتر والتعرّف على الأنماط.

 

يعمل FairDeDup عن طريق تقليص مجموعات البيانات الخاصة بالتسميات التوضيحية للصور التي تمّ جمعها من الويب من خلال عملية تُعرف باسم التقليم. يشير التنقيح إلى اختيار مجموعة فرعية من البيانات التي تمثل مجموعة البيانات بأكملها، وإذا تمّ ذلك بطريقة تراعي المحتوى، فإنّ التقليم يسمح باتخاذ قرارات مستنيرة في شأن أجزاء البيانات التي ستبقى وأيّ منها سيتمّ إزالته.

 

وقال سليمان: "يزيل FairDeDup البيانات الزائدة عن الحاجة مع دمج أبعاد التنوّع التي يمكن التحكّم فيها والتي يحدّدها الإنسان للتخفيف من التحيّزات".

وأكمل قوله: "يتيح نهجنا تدريب الذكاء الاصطناعي الذي لا يكون فعالاً من حيث التكلفة ودقيقًا فحسب، بل أكثر عدلاً أيضًا."

 

بالإضافة إلى المهنة والعرق والجنس، يمكن أن تشمل التحيّزات الأخرى التي تتكرّر أثناء التدريب تلك المتعلقة بالعمر والجغرافيا والثقافة.

وتابع سليمان: "من خلال معالجة التحيّزات أثناء تقليم مجموعة البيانات، يمكننا إنشاء أنظمة ذكاء توليدي أكثر عدلاً من الناحية الاجتماعية".

 

وأضاف: "إنّ عملنا لا يجبر الذكاء الاصطناعي على اتباع مفهومنا الموصوف للعدالة، بل يخلق طريقًا لدفع الذكاء الاصطناعي إلى التصرّف بشكل عادل عند وضعه في سياق بعض الإعدادات وقواعد المستخدمين التي يتمّ نشره فيها. نحن نسمح للأشخاص بتحديد ما هو عادل في بيئتهم بدلاً من الإنترنت أو مجموعات البيانات الأخرى واسعة النطاق التي تقرّر ذلك."