هل يمكن أن يصبح الذكاء الاصطناعي عنصريا؟
كيف نضمن ألا يعكس الذكاء الاصطناعي التحيز البشري؟ يتطور الذكاء الاصطناعي بوتيرة سريعة، لكن الباحثين والعاملين في مجال التكنولوجيا لديهم مخاوف من أن يؤدي نقص التنوع في عالم الذكاء الاصطناعي إلى إنشاء تكنولوجيا تمارس التمييز ضد الأقليات، وفق صحيفة نيويورك تايمز. تعرض الباحثون الذين حاولوا تسليط الضوء على الطبيعة التمييزية لأنظمة الذكاء الاصطناعي إلى ردود أفعال عنيفة من الشركات التي يعملون بها، إذ طردت شركة جوجل اثنتين من أبرز الباحثات في مجال الذكاء الاصطناعي العام الماضي بعد إثارتهما للقضية. وفي محاولة لاحتواء حالة السخط الناتجة عن ذلك، تعهد عملاق التكنولوجيا في فبراير الماضي بإجراء تغييرات على عمليات البحث.
كيف يمكن أن يصبح الذكاء الاصطناعي متحيزا؟ في عام 2015، تعرضت جوجل لموجة انتقادات واسعة بعد أن صنف تطبيق الصور التابع لها صورة لاثنين من ذوي البشرة الداكنة على أنهما غوريلا تلقائيا. بعد فترة وجيزة، قدمت الشركة اعتذارا عما حدث، وأكدت أن هذه المسميات حُذفت من محركات البحث ومن الصورة. المثير للصدمة أكثر ما كشفه تحقيق عن تحيز برامج كمبيوتر مستخدمة في أنظمة القضاء في الولايات المتحدة الأمريكية ضد السود، وهي برامج تقيّم إحتمالية عودة المجرمين المدانين لارتكاب الجرائم مرة أخرى، إذ ضاعفت هذه البرامج احتمالات ارتكاب السود جريمة مجددا بمعدل مرتين أكثر من الأشخاص البيض. وفي السياق نفسه، تواجه برمجيات التنبؤ بالجريمة التي تستخدمها الشرطة، المعتمدة على أنظمة الذكاء الاصطناعي للتنبؤ بأماكن وقوع الجرائم وتوزيع أفراد الشرطة بناء على ذلك، اتهامات بالإفراط في مراقبة جاليات السود. حتى برنامج الكمبيوتر GPT-3 المخصص في كتابة الشعر والمقالات ورموز البرمجة، تبين أنه أظهر شكلا من أشكال التمييز ضد السود وأشكالا أخرى من التحيزات.
أسباب حدوث ذلك: تعتمد أنظمة الذكاء الاصطناعي على "شبكة محايدة"، وتتعلم جميع المهارات اللازمة من خلال تحليل كميات كبيرة من البيانات الرقمية. إذا اختار المهندسون عند تدريبهم لهذه الأنظمة بيانات متحيزة (محدودة الرؤية أو غير محددة)، فيمكنهم دون قصد تغذية هذه الأنظمة بمواد موحدة الاتجاه، ما سيؤدي إلى إعادة إنتاج تحيزاتهم في أجهزة من المفترض أن تحررنا من تحيزاتنا.
المعضلة الأخلاقية لأنظمة معرفة الوجوه: طورت شركة الذكاء الاصطناعي الأمريكية كلاريفاي نظاما لتعديل المحتوى في عام 2017، يهدف للمسح التلقائي للمحتوى غير الملائم أو "الفاضح" في الصور المنشورة على شبكات التواصل الاجتماعي. ودرب المهندسون الأنظمة على التعرف إلى الاختلاف بين الصور غير الملائمة والصور الملائمة لأن يشاهدها الجميع. ولأن الصور الملائمة للجميع هيمن عليها الأشخاص البيض، تعلمت أنظمة الذكاء الاصطناعي عن طريق الخطأ التعرف إلى صور الأشخاص السود على أنها تتضمن محتوى "غير ملائم" ينبغي حجبه. أبلغت متدربة الإدارة بالمشكلة، إلا أن الشركة استمرت في تبني هذا النموذج. وعلى المنوال نفسه، أبلغت عالمة كمبيوتر سوداء أن نظام التعرف إلى الوجوه لم يعمل معها سوى بعد ارتدائها قناع الهالوين الأبيض.
بعض الشركات تحاول التعامل مع هذه المعضلة الأخلاقية: قررت شركات آي بي إم ومايكروسوفت وأمازون العام الماضي عدم السماح للشرطة باستخدام تكنولوجيا معرفة الوجوه، فيما أعلنت آي بي إم في وقت لاحق عن خطط أخرى للتوقف عن هذا النشاط، وسط مخاوف بشأن حقوق الأشخاص وحتى وضع قواعد تتعلق بالضمانات الأخلاقية لهذه التكنولوجيا.
ما الذي ينبغي فعله؟ يرى بعض الباحثين أنه ينبغي ترك أنظمة الذكاء الاصطناعي للتعلم وحدها، حتى تصبح قادرة في نهاية المطاف على التعامل مع جميع فئات المجتمع بصورة متساوية، فيما يعتقد آخرون أن التدخل البشري ينبغي أن يحدث عند إدخال الرموز لمحاولة تصفية هذه التحيزات. لكن حماية الذكاء الاصطناعي من الجوانب الأسوأ في الطبيعة البشرية ربما يستلزم الرقابة على النصوص التاريخية والأغاني وغيرها من المواد، وهو جهد مكلف ومثير للجدل.
وجهة نظرنا: لم نتوقع التعامل مع الروبوتات العنصرية عند تخيلنا لعالمنا التكنولوجي المثالي، لكن إذا كان التنوع في مجال الذكاء الاصطناعي يمكن أن يحدث فارقا في معالجة هذه المسألة، فهو أمر دون شك يستحق الاستثمار في الوقت والمال لتصحيحه.