الإنصاف

أهمية الإنصاف في نظم الذكاء الاصطناعي

ينبغي لنظم الذكاء الاصطناعي أن تُصمم وتٌستخدم بطريقة تدعم الإنصاف وتمنع الانحياز والتمييز. يساعد الإنصاف في الذكاء الاصطناعي في ضمان ألا تقوم نماذج الذكاء الاصطناعي بالتمييز عندما تتخذ قراراتها، خاصة فيما يتعلق بمواصفات مثل البلد أو الأصل أو العنصر أو النوع.

من ثم، يساعد الإنصاف في ألا يسهم نظام ذكاء اصطناعي في التمييز أو القرارات غير المنصفة. تقييمات الإنصاف بالغة الأهمية لباحثي تعلم الآلة الذين يضبطون نظم الذكاء الاصطناعي حتى يمكنهم تحسين قياس معدلاتهم وأن يجعلوها منصفة.

إضافة إلى ذلك، من المهم أن يحترم نظام الذكاء الاصطناعي مفهوم الإنصاف، سواء من المنظور القانوني أو الأخلاقي. تكمن أهمية تحقيق الإنصاف في تجنب سيناريوهات الضرر المحتملة، مثل التمييز ضد جماعة بعينها من الناس باستخدام مواصفات ذات حساسية.

كيف يمكن تضمين الانحيازات في نظم الذكاء الاصطناعي

يمكن للبيانات المنحازة أن تسهم دون علم في عدم الإنصاف. فنظم تعلم الآلة تُدَرب أساسًا على حزم بيانات يمكن ألا تكون منصفة بسبب عدة عوامل، بما في ذلك طريقة جمع البيانات. على سبيل المثال، أثبتت دراسة حديثة أن نماذج التنبؤ بخطر الوفاة المنشورة في عيادات الرعاية في مستشفى أو إقليم يمكن تعميمها على شرائح سكانية أخرى. وجدت الدراسة أيضًا أن أداء النماذج قد اختلف باختلاف المجموعات العرقية، وكان هذا الاختلاف بسبب البيانات المستخدمة لتدريب النماذج.

يشير هذا إلى أن البيانات إن كانت فاسدة أو عرضة لعدم الإنصاف والعشوائية، فليس ثمة الكثير مما يمكن فعله لجعل نظم الذكاء الاصطناعي المدربة عليها منصفة. وهذا مثال لمفهوم “المدخلات الفاسدة تؤدي لمخرجات فاسدة” المستخدم في تعلم الآلة. نتيجة لذلك، تحفظ خوارزميات الذكاء الاصطناعي الحديثة عدم الإنصاف الموجود في البيانات وتضخمه.

أمثلة لنظم الذكاء الاصطناعي غير المنصفة

روبوت المحادثة تاي: في عام 2016 حاولت مايكروسوفت أن تعرض روبوت محادثة يدعى تاي من خلال تويتر. أطلقت مايكروسوفت “تاي” بنية أن يتعلم من محادثاته مع مستخدمي التطبيق الآخرين. في البداية، ركزت مايكروسوفت على كيفية تنظيف ونمذجة وفلترة البيانات العامة ذات الصلة.

على عكس ذلك، كان روبوت المحادثة يشارك تغريدات معادية للعابرين جندريًا وأخرى عنصرية خلال أول 24 ساعة. لقد تعلم روبوت المحادثة السلوك التمييزي من تفاعله مع المستخدمين، الذين كان عدد كبير منهم يغذيه برسائل مستفزة.

خوارزمية فيسبوك للإعلانات: انتهك فيسبوك الدستور الأمريكي بالسماح للمعلنين باستخدام المنصة لتوجيه الإعلانات بشكل متعمد حسب الديانة والنوع والعرق (هذه الفئات محمية من النظام القانوني الأمريكي). تم اقتراح إعلانات التوظيف في أدوار العمل في السكرتارية والتمريض للنساء بصفة عامة، في حين كانت إعلانات سائقي التاكسي ومشرفي البنايات تظهر للرجال، خاصة من المنتمين إلى الأقليات.

كذلك توصل الخبراء إلى أن الخوارزمية قد تعلمت أن إعلانات العقارات يمكن أن تحقق إحصاءات تفاعل أكبر عند إظهارها للبيض، مما يعني أنها لم تعد تظهر لمن هم ينتمون إلى الأقليات. يُظهِر هذا المثال كيف يمكن للانحياز أن يظهر في نظام ذكاء اصطناعي.

توصيات لدعم الإنصاف في نظم الذكاء الاصطناعي

التركيز على البيانات هو أمر بالغ الأهمية. على سبيل المثال، فحص منشأ البيانات وقابليتها لإعادة الإنتاج يمكن أن تكون له قيمة كبيرة. كذلك يمكن للتركيز على أن تكون النماذج شفافة وقابلة للإيضاح أن يساعد على جعل المتغيرات ذات الصلة باتخاذ القرارات أكثر وضوحًا وإنصافًا.

ينبغي معاملة الإنصاف كفعل تعاوني. ومن ثم، ينبغي على المنظمات أن تستثمر في تدريب مدرائها أخلاقيًا. أكدت Harvard Business Review أن المدراء في حاجة إلى القدرة على تحدي قرارات الخوارزميات وتطوير حسهم العفوي وحسهم المشترك تجاه الصواب والخطأ.

إضافة إلى ذلك، ينبغي النظر إلى إنصاف الذكاء الاصطناعي كتفاوض بين الإنسانية والنفعية. ولتحقيق ذلك، ينبغي على القادة أن يكونوا واضحين فيما يخص القيم التي ترغب الشركة في السعي إليها والمعايير الأخلاقية التي يودون أن تتحقق.

لذلك، ينبغي أن يوضحوا أسبابهم والطريقة التي يرغبون في أداء الأعمال بها. أخيرًا، ينبغي لعلماء البيانات في أي منظمة أن يفهموا ويقبلوا المعايير الأخلاقية والقيم التي أرستها قياداتهم. ففي عديد من المنظمات ثمة فجوة بين ما يبنيه علماء البيانات ومخرجات العمل وبين القيم التي يسعى قادة المنظمة إلى تحقيقها. ينبغي للجانبين أن يتعاونا لفهم القيم التي لا يمكن التضحية بها عند نشر الخوارزميات.