تقييم الأثر على حقوق الإنسان

أهمية تقييم الأثر على حقوق الإنسان في تطوير واستخدام نظم الذكاء الاصطناعي

ينبغي على مطوري ومستخدمي الذكاء الاصطناعي إجراء تقييمات للأثر على حقوق الإنسان لتكشف وتحجيم الأخطار المحتملة والآثار السلبية. وتحتاج تقييمات الأثر على حقوق الإنسان إلى تفاعل ذي معنى من الأفراد الأكثر تأثر. وللتعامل مع هذه الحاجة طور المركز الأوروبي للقانون غير الهادف للربح إطارًا للتفاعل ذي المعنى، والذي يشمل الأهداف المشتركة، والعملية الموثوق بها، والأثر المرئي.

وقد نجم هذا الإطار عن الحاجة إلى أدوات مساعدة، وعملية واضحة وسياق معياري لضمان أن يصبح التفاعل ذا معنى. وهدفه هو ضمان أن يشعر المطورون والمتفاعلون أنهم قد توصلوا بشكل تعاوني إلى نتيجة ملموسة. وينبغي أن يحتوى التقييم على تجارب معاشة وأصوات وأنظمة متنوعة ومن أصحاب مصلحة خارجيين متنوعين، وأن يؤكد الإطار على أهمية تفاعل من هم أكثر عرضة لأضرار الذكاء الاصطناعي.

تدفع شركات التكنولوجيا والحكومات على حد سواء، عالميا، بالذكاء الاصطناعي وصور اتخاذ القرار المؤتمتة كحلول ملائمة ورخيصة وسريعة لتحديات اجتماعية متنوعة – بما في ذلك كشف الاحتيال، وإدارة المحتوى غير القانوني على مواقع التواصل الاجتماعي، وحتى ملاحقة المتهربين من الضرائب. وهذا بالرغم من أن فضائح الاستخدام الخاطئ والمسيء لنظم الذكاء الاصطناعي تستمر في التراكم.

وبرغم تقديمه على أنه الحل السحري للمشكلات المعقدة للمحتوى غير المشروع على الإنترنت، فقد وجد أن النظم المؤتمتة لإدارة المحتوى محدودة ومعيبة وعرضة للخطأ. إضافة إلى ذلك، لا تقتصر هذه الأخطار على الفضاءات الرقمية. فعلى سبيل المثال، طبقت سلطات الضرائب في هولندة خوارزمية لكشف الاحتيال في الفوائد. وقد أدى ذلك إلى اتهام ومعاقبة الكثيرين، عدد كبير منهم من خلفيات محدودة الدخل أو من الأقليات.

إجراء التقييمات بالطرق المعتادة سوف يخطئ الهدف بالنسبة لنظم الخوارزميات والذكاء الاصطناعي، كما أوضح ذلك فشل تقييم فيسبوك للأثر على حقوق الإنسان في ميانمار. فقد أجرت الشركة بتقييم للأثر على حقوق الإنسان بعد أن أثبت محققو الأمم المتحدة وقوع تصفية عرقية في ميانمار. ومع ذلك فشل التقييم في أن يحدد بشكل كاف الآثار الأكثر حدة لحضور الشركة ومنتجاتها في البلد.

ومن ثم، ينبغي أن تجرى التقييمات خلال كامل عملية تطوير ونشر الذكاء الاصطناعي. ومع مزيد من الجهات التشريعية التي تلزم بتقييمات الأثر على حقوق الإنسان لنظم الذكاء الاصطناعي، ينبغي أن توجه التوصيات التالية هذه العملية.

توصيات لإجراء تقييمات الأثر على حقوق الإنسان في تطوير واستخدام نظم الذكاء الاصطناعي

المجتمع المدني والمجموعات المتأثرة: ينبغي إعطاء الأولوية لمدخلات المجتمع المدني والمتأثرين في إجراء تقييمات الأثر على حقوق الإنسان. فثمة حاجة إلى مشاركة ذات معنى وموارد أكثر للمجموعات المتأثرة وللمجتمع المدني داخل المنظمات المخولة بإجراء التدقيقات والتقييمات، وفي جهات وضع المعايير، وثمة حاجة أيضا إلى إفصاح علني ذي معنى لنتائج التدقيق والتقييم.

آليات الإشراف: من المهم تطوير آليات للإشراف في حال أخفقت التقييمات الذاتية في حماية الناس. وينبغي أن تطلق هذه الآليات تقييمات وتدقيقات مستقلة، وأن تقدم سبلا واضحة للأفراد المتأثرين بنظم الذكاء الاصطناعي لإعلان تضررهم.

تطوير تقييم لمخاطر الذكاء الاصطناعي على حقوق الإنسان بشكل تعاوني: بالتوافق مع كل أصحاب المصلحة ذوي الصلة، ينبغي أن تخلق السلطات منهجية تقييم أخطار نموذجية تتعامل صراحة مع المخاوف على حقوق الإنسان التي يثيرها الذكاء الاصطناعي.