أهمية عدم التمييز في نظم الذكاء الاصطناعي
ينبغي تطوير واستخدام نظم الذكاء الاصطناعي بطريقة لا تميز ضد الأفراد أو الجماعات بناء على العرق، العنصر، الدين أو أية خصائص أخرى. يساعد الذكاء الاصطناعي المنصف وغير التمييزي على ضمان أن تكون نظم الذكاء الاصطناعي مساوية وعادلة، فتعامل جميع الأشخاص بإنصاف ودون أي صورة من الانحياز.
يعد ذلك وثيق الصلة بصفة خاصة في الصناعات التي تستخدم فيها نظم الذكاء الاصطناعي لصنع قرارات لها آثار هامة في حياة الناس، بما في ذلك في عمليات الترقية والتوظيف أو في منظومة العدالة الجنائية.
نظم الذكاء الاصطناعي غير التمييزية مهمة أيضًا لدعم الثقة في هذه النظم وزيادة معدل تبنيها. فعندما يعتقد الناس أن نظم الذكاء الاصطناعي تمييزية ومنحازة، يكون احتمال أن يثقوا فيها أقل ويكون من المرجح أكثر أن يقاوموا تبنيها.
يجب كذلك أن تكون نظم الذكاء الاصطناعي غير تمييزية لأسباب أخلاقية. فلا ينبغي لنظم الذكاء الاصطناعي أن تضخم أو تدعم استمرارية التمييز أو الانحيازات القائمة، بل ينبغي بالأحرى أن تسعى إلى دعم العدالة والمساواة.
كيف يمكن لنظم الذكاء الاصطناعي أن تدعم استمرارية التمييز
يمكن للتمييز المنسوب إلى نظم الذكاء الاصطناعي أن يظهر عمدًا أو بشكل غير متعمد. يظهر التمييز المتعمد عندما تكون الشروط أو الظروف ذات النتائج التمييزية مزروعة بشكل مقصود داخل الخوارزميات. كمثال لذلك أن توجد قاعدة ترفض بشكل تلقائي طلبات القروض للنساء.
مع ذلك، في حالات كثيرة من نظم الذكاء الاصطناعي التمييزية، لا يشرع مطوروها في عملهم بهذه النية. على العكس، ينتج التمييز عن علمية التطوير دون قصد. يمكن لذلك أن يحدث بطريقتين رئيسيتين. الطريقة الأولى هي بيانات التدريب غير المتوازنة، حيث تكون جماعة من الناس ممثلة بشكل غير عادل في حزمة البيانات التدريبية. يمكن لهذا أن يؤدي إلى التمييز لأن الخوارزمية تفتقد إلى القدر الكافي من البيانات المتعلقة بهم لتصدر قرارات دقيقة.
كما يؤدي التمثيل المفرط لقطاع بعينه من المجتمع (الرجال مثلًا)، في خوارزميات تعلم الآلة إلى أن يولي النموذج اهتمامًا أكبر للعلاقات الإحصائية التي تتنبأ بنتائج هذه الجماعة، وإلى أن يولي اهتمامًا أقل للأنماط الأخرى التي تتنبأ بنتائج للجماعات الأخرى.
الطريقة الثانية، هي أن تعكس بيانات التدريب تمييزًا سابقًا، وهو ما يعني أن تمارس الخوارزمية التمييز بنفس الطريقة. وذلك إشكالي بصفة خاصة في الأماكن التي كان فيها التمييز مشكلة تاريخية، بما في ذلك ما يتعلق بعمل الشرطة أو التوظيف.
أمثلة لنظم الذكاء الاصطناعي التمييزية
خوارزمية أمازون والتمييز ضد النساء: هدف نظام أمازون للتوظيف المؤتمت إلى تقييم المتقدمين بناء على مناسبتهم لعدد من الأدوار. تعلم النظام كيفية تحديد ما إذا كان شخص ما مناسب لأحد الأدوار من خلال فحص السير المهنية لعدد من المرشحين السابقين.
جاءت قرارت هذا النظام منحازة ضد النساء، حيث أن النساء كن سابقًا غير ممثلات بشكل عادل في القواعد التقنية. لذلك، اعتقد نظام الذكاء الاصطناعي أن المتقدمين من الذكور لهم الأفضلية. ومن ثم، عوقبت السير المهنية للنساء بإعطائها معدلًا أقل من القبول.
الانحياز العنصري لنظام COMPAS: يعكس الذكاء الاصطناعي أيضًا الانحياز العنصري. على سبيل المثال، استخدم نظام المسح للإدارة الإصلاحية للجنائيين للعقوبات البديلة (COMPAS) الذكاء الاصطناعي للقيام بتنبؤات حول الجنائيين في الولايات المتحدة والذين لديهم ميل أكبر لمعاودة ارتكاب الجرائم. أثبت تحقيق قامت به ProPublica في عام 2016 أن نظام COMPAS كان أميل إلى أن يجد المتهمين السود يمثلون خطرًا أكبر من حيث معاودة ارتكاب الجرائم مقارنة بأقرانهم البيض.
خوارزمية الرعاية الصحية في الولايات المتحدة: قدرت خوارزمية لنظام الرعاية الصحية بالولايات المتحدة احتياجات المرضى السود بشكل أقل من الواقع. أظهر ذلك أن الذكاء الاصطناعي يمكن أيضًا أن يعكس التحامل العنصري في منظومة الرعاية الصحية.
صُمِمت الخوارزمية، المستخدمة لأكثر من 200 مليون شخص، للتنبؤ بالمرضى الذين يحتاجون إلى عناية صحية إضافية. حللت الخوارزمية تاريخ تكلفة الاحتياجات الصحية للمرضى بافتراض أنها مؤشر لاحتياجات الفرد من الرعاية الصحية.
فشل هذا الافتراض في إيضاح الطرق المختلفة التي يدفع بها البيض والسود مقابل الرعاية الصحية. وحسب ورقة علمية نشرت في عام 2019، ثمة احتمال أكبر لأن يدفع المرضى السود مقابل التدخلات النشطة، مثل الزيارات الطارئة للمستشفى، برغم وجود علامات لأمراض خارج السيطرة. ومن ثم، أُعطي المرضى السود نقاط خطورة أقل، ونُظر إليهم على أنهم مساوون من حيث التكلفة لأفراد بيض يتمتعون بصحة أكبر، فلم يكونوا مؤهلين للرعاية الإضافية مثل مرضى بيض لهم احتياجات مشابهة لاحتياجاتهم.
توصيات لمنع التمييز في نظم الذكاء الاصطناعي
من بين أفضل سبل مكافحة التمييز، القيام بفحص وتقييم لنظم الذكاء الاصطناعي. فيمكن لتقييم الأثر أن يلعب دورًا محوريًا في مكافحة الانحياز. وإلى جانب تقييمات أثر حماية البيانات، وتقييمات أثر الخوارزميات، يمكن لفحوص الانحياز أن تكون آلية جيدة لتقييم نظم الذكاء الاصطناعي المستخدمة حاليًا.
بدلًا من اختبار الخوارزمية، تقوم الفحوص بمقارنة البيانات المدخلة إلى النظام ومخرجاته. يمكن لهذه الفحوص التي تسمى أيضًا باختبار الصندوق الأسود، أن تؤدى بثلاثة طرق: فحص التنحية، وفحص الدمى، والفحص التشاركي/الجماعي.
يتطلب فحص التنحية أن يكتب المراجع برنامجًا يقوم بعدة طلبات من موقع إلكتروني ويراقب النتائج بدقة. وعلى جانب آخر تتعلق وحدة الدمى بخلق حسابات مستخدمين زائفة لملاحظة عمل النظام. وأخيرًا، يعمل الفحص التشاركي أو الجماعي مثل فحص الدمى ولكنه يتطلب الاستعانة بأشخاص حقيقيين لخلق الحسابات.
من المهم أيضًا أن توجد عمليات وسياسات واضحة لاختبار البيانات وللحصول على تدريب عالي الجودة، وذلك للحماية من تمييز نظم الذكاء الاصطناعي. ومن المهم للمنظمات أن تكون واثقة من أن البيانات التي تم جمعها أو الحصول عليها تمثل الشريحة السكانية التي سيعمل النظام عليها. إضافة إلى ذلك، ينبغي لدورة حياة النظام أن تشمل اختبارات ومقاييس أداء أساسية لضمان أن يستمر النظام في إخراج نتائج منصفة.
من المهم كذلك استخدام آليات لتحسين شفافية نظم الذكاء الاصطناعي. ويمكن تحقيق ذلك بإيضاح قرارات نظام الذكاء الاصطناعي، وضمان أن خوارزمياته أكثر قابلية للفهم والتفسير. أخيرًا، ينبغي لكل أصحاب المصلحة من الجماعات المتنوعة أن ينخرطوا في تطوير ونشر نظم الذكاء الاصطناعي. فذلك يمكن أن يضمن أن توضع احتياجات ورؤى الجماعات المختلفة في الاعتبار، وأن تكون نظم الذكاء الاصطناعي أكثر ميلًا إلى عدم التمييز وإلى الإنصاف.