أجهزة الذكـاء الاصطـناعي تتحيز ضد السود والنساء والأقليات

يحذر الخبراء من أن نظام الذكاء الاصطناعي الذي تستخدمه شركات التوظيف، والبنوك، وحتى المحاكم في بعض الأحيان، يعتمد على بيانات تنطوي على تحيز واضح ضد فئات معينة.

في عام 2014، طورت أمازون برنامج توظيف استخدمت فيه الذكاء الاصطناعي، إلا أن هذا البرنامج صار يميز بين طالبي العمل من الإناث.

وبعد مرور عام على ذلك، اكتشف مستخدم لصور «غوغل» أن البرنامج كان يدرج السود في فئة «الغوريلا».

وفي عام 2018، اكتشف القائمون على الأمر أن أحد البرامج، الذي يحلل خطر عودة المجرم إلى طبيعته الإجرامية السابقة، ارتكب العديد من الأخطاء، مثله مثل أي إنسان لا يتمتع بخبرة في مجال العدالة الجنائية.

إن العديد من القرارات التي كان يتخذها الإنسان من قبل، أصبح يتخذها نيابة عنه في الوقت الراهن ما يعرف بـ«الذكاء الاصطناعي»، حيث تتعامل بعض هذه البرامج مع قرارات التوظيف، وبعضها مع الموافقات على القروض، والتشخيصات الطبية، وحتى الأحكام الصادرة من المحاكم.

وهناك خطر جسيم ينطوي على ذلك، لأن البيانات المستخدمة في هذه البرامج تعتمد على مدى معرفتنا وميولنا وتحيزنا حيال المادة موضوع البرنامج.

ويؤكد خبير البيانات الكبيرة والذكاء الاصطناعي لدى شركة تليفونيكا، ريتشارد بنيامينز، أن «البيانات هي انعكاس للواقع، فإذا كنا متحيزين، فإن البيانات تكون متحيزة كذلك»، ويمضي قائلاً «من الضروري التحقق من أن بيانات التدريب لا تحتوي على تحيز، وتركز على تحليل النسب الإيجابية والسلبية، والأهم من ذلك ألا تكون لدينا لوغاريتمات تمييزية بطريقة غير محببة في مجالات القانون، أو القروض، أو القبول بالمدارس».

وتقدم المديرة الإدارية للذكاء التطبيقي في شركة إكسنتشر الاستشارية، إيزابيل فرنانديز، مثالاً لمنح القروض أوتوماتيكياً.

وتقول: «تخيل أن معظم المتقدمين للحصول على قروض في الماضي كانوا من الرجال، وأن القليل من النساء اللواتي تمت الموافقة على حصولهن على قرض، استطعن أن يتغلبن على مثل هذه المعايير الصارمة ويسددن ديونهن، إذا استخدمنا هذه البيانات وأي شيء آخر، فإن النظام سيخلص إلى أن النساء أفضل في التسديد من الرجال، وهو مجرد انعكاس لأحكام الماضي». لكن في العديد من المناسبات، تتعرض النساء للأذى بسبب هذا النوع من التحيز.

ومع هذا النوع من القرارات، من الصعب من البداية إدراج أي رأي لمجموعات من الأقليات، أو نسبة 50٪ من السكان الآخرين، والتي قد تتكون في بعض الأحيان من النساء، كما تقول الباحثة في علم الروبوتات والذكاء الاصطناعي بجامعة كارلوس الثالث، نيريا لويس مينغويزا.

وتعتقد أن المجموعات الأقل تمثيلاً، تتأثر بشكل كبير من مثل هذه المنتجات التقنية. على سبيل المثال، تفشل أنظمة التعرف إلى الصوت في التعرف إلى أصوات النساء والأطفال في كثير من الأحيان. ومن المرجح أن تشعر الأقليات بآثار هذا التحيز، كما يقول رئيس الذكاء الاصطناعي ومركز تحليل البيانات بشركة ويفسبيس، خوسيه ماريا لوسيا. ويمضي قائلاً «إن عدد الحالات التي تتاح لها فرصة للتدريب سيكون أقل، وإن أي مجموعة من الذين عانوا التمييز من أي نوع في الماضي ستتأثر بذلك، لأننا من خلال استخدام البيانات التاريخية، نتحيز من غير قصد لأشخاص معينين».

وهذه هي الحال مع السكان الأميركيين من أصل إفريقي في الولايات المتحدة، وفقاً لكبير المديرين في شركة إكسنتشر، خوان ألونسو: «لقد ثبت أنه إذا تم القبض على واحد منهم بتهمة تدخين الماريغوانا في الأماكن العامة، أو امتلاك كميات صغيرة منها، فإنه سيكون عرضة للسجن في الوقت الذي لا يتعرض فيه للسجن الرجل الأبيض إذا ارتكب الجنحة نفسها».

وهذا يعني أن هناك نسبة أعلى من السود في قاعدة البيانات، وأن أي لوغاريتمات يتم تعريفها على مثل هذه البيانات ستتضمن تحيزاً عنصرياً. وتشرح مصادر في «غوغل» أنه ينبغي «توخي الحذر الشديد» بشأن اعتماد قرار بناء على ماكينة الذكاء الآلي، لأن الذكاء الاصطناعي يستند على البيانات الموجودة، وفي النهاية يجب أن يدرك البشر أنه ليس عليهم بالضرورة تقديم نتائج لا تشوبها شائبة.

وغالباً تكون الآلات عبارة عن صندوق مملوء بأسرار غير قابلة للتغيير حتى لمطوريها أنفسهم، الذين لا يستطيعون التكهن بالمسار الذي تتخذه هذه الأسرار، للوصول إلى نتيجة معينة.

يقول ألونسو: «عندما تتم محاكمتك عادة تحصل على تفسير للحكم الصادر بحقك، لكن المشكلة في أن هذا النوع من اللوغاريتمات غير شفاف، الأمر شبيه بوجودك أمام عرافة تصدر بحقك حكماً».

ويشرح ذلك بإسهاب، قائلاً «تخيل أنك ذاهب إلى مهرجان في الهواء الطلق، وعندما تصل إلى الصف الأمامي، يقوم فريق الأمن بركلك وطردك دون أي نوع من التفسير، ستغضب بالطبع، لكن إذا قيل لك من البداية إن الصف الأول مخصص للأشخاص ذوي الإعاقة، فلن تكون غاضباً وستعود إلى الخلف راضياً، والأمر نفسه ينطبق بشأن اللوغاريتمات: إذا لم نجد تفسيراً لما يحدث، يمكن أن يولد ذلك لدينا شعوراً بعدم الرضا».

• الآلات غالباً تكون عبارة عن صندوق مملوء بأسرار غير قابلة للتغيير حتى لمطوريها أنفسهم، الذين لا يستطيعون التكهن بالمسار الذي تتخذه هذه الأسرار، للوصول إلى نتيجة معينة.

• مصادر في «غوغل» تشرح أنه ينبغي «توخي الحذر الشديد»، بشأن اعتماد قرار بناء على ماكينة الذكاء الآلي، لأن الذكاء الاصطناعي يستند على البيانات الموجودة، وفي النهاية يجب أن يدرك البشر أنه ليس عليهم بالضرورة تقديم نتائج لا تشوبها شائبة.