حماية الجماعات المستضعفة

أهمية حماية الجماعات المستضعفة في نظم الذكاء الاصطناعي

ينبغي وضع سبل حماية خاصة للجماعات المستضعفة بما في ذلك الأطفال، ذوي الإعاقات، وكبار السن، لضمان ألا تضر نظم الذكاء الاصطناعي بحقوقهم ومصالحهم. حماية الجماعات المستضعفة هي أمر بالغ الأهمية لضمان معالجة المخاوف الأمنية من تعرض معلوماتهم الشخصية للخطر. وهي أيضا مهمة لمساعدة الجماعات المستضعفة على تعقب بياناتهم الشخصية وللقيام باختيارات أفضل ومؤسسة بشكل أكبر على المعرفة ومتوافقة مع أهدافهم.

كيف يمكن للذكاء الاصطناعي أن يضر بحقوق ومصالح الجماعات المستضعفة

في حين أن تعريفات الاستضعاف مجزأة بصفة عامة، فهي تشير بالأساس إلى حالة أو خاصية يكون فيها الفرض عرضة لاحتمال الأذى أو التعدي، إما معنويا أو بدنيا. وحسب مانان وآخرون (2012)، ثمة 12 نوعا من الجماعات المستضعفة، بما في ذلك الفقراء، المعرضون لخطر الاعتلال، الأسر التي تعيلها النساء، الأطفال (خاصة ذوي الاحتياجات الخاصة)، كبار السن، المراهقين، من يعيشون بعيدا عن الخدمات الصحية، الأقليات الإثنية، المهجرين (مثل اللاجئين والمهاجرين)، من يعانون من أمراض مزمنة، وذوي الإعاقة.

يمكن للاعتماد على الذكاء الاصطناعي لجمع البيانات الشخصية لهذه الجماعات أن يؤدي إلى استبعادهم من الحماية. وهذا لأن مثل هذه الجماعات يمكن أن تفتقر إلى القدرة على فهم كيف تستخدم بياناتهم، وتوقع كيف بمكن لذلك أن يؤثر عليهم، وحماية أنفسهم في مواجهة أية عواقب غير مرغوبة. على سبيل المثال، الأفراد من مجتمع الميم قد يجدون أنفسهم تحت تأثير سلبي لنظم تدعم أو تسمح باستمرار التمييز أو الاستهداف.

يتحدد الاستضعاف بعوامل متنوعة بما في ذلك العوامل المادية/التقنية، الاجتماعية، السياسية، التنظيمية، والاقتصادية. فيمكن لتكنولوجيا التعرف على الوجوه أن تخطئ في التعرف على النوع في بعض الجماعات السكانية وأن تميز ضد الأشخاص خارج الثنائية الجندرية التقليدية. على سبيل المثال، تأسست مقاربات/خوارزميات الذكاء الاصطناعي على ثنائية الذكر والأنثى الجندرية، وتستخدم الملامح الجسدية لتحديد جندر الشخص. ومن ثم فمثل هذه النظم قد تؤدي إلى إساءة التعرف على جندر العابرين جندريا، في حين أن الأشخاص خارج الثنائية الجندرية يُرغمون على التقيد بثنائية تقوض هوياتهم الجندرية.

أمثلة لنظم ذكاء اصطناعي ضارة تستهدف الجماعات المستضعفة

أداة أليجني للمسح العائلي (AFST): هذا النموذج التنبؤي يُنشر للتنبؤ بالإساءة إلى الأطفال وإهمالهم. وفق الدراسة الأولية للمهمة العالمية للأخلاقيات في المعرفة العلمية والتكنولوجيا COMEST التابعة لليونسكو حول أخلاقيات الذكاء الاصطناعي، يفاقم نموذج AFST من التمييز البنيوي القائم ضد الفقراء ويؤثر بشكل غير متناسب على المجتمعات المستضعفة بأخذ عينات مبالغ فيها من بين الفقراء واستخدام وسطاء لفهم الإساءة للأطفال والتنبؤ بها بطريقة تحرم العائلات العاملة الفقيرة من حقوقها. وقد انتقدت الخوارزمية التي ينبني عليها AFST بشكل متزايد بسبب عدم شفافيتها فيما يخص الانحيازات الجندرية والطبقية والعرقية لأدوات الذكاء الاصطناعي التنبؤية والمستمرة لفترة طويلة.

أداة جوجل لمراقبة الطلاب: هي أداة مراقبة رقمية تدعم صحة وسلامة الطلاب. وتستخدم الأداة كلمات مفتاحية تعرض الطلاب من مجتمع الميم لمخاطر أمنية حادة من قبل مسؤولي المدارس، مما يسهم في الانحياز ضدهم.

توصيات لضمان حماية الجماعات المستضعفة في نظم الذكاء الاصطناعي

يمكن تنفيذ ثلاثة إجراءات إضافية لحماية الإثنا عشرة جماعة مستضعفة:

  • تحجيم الآثار الضارة للذكاء الاصطناعي باستخدام الكشف المستمر عن المخاطر والاستعداد لها والتنبؤ بها بالتعاون مع أصحاب المصلحة المتضررين، بما في ذلك التمثيل الكافي للجماعات المستضعفة. ومن المهم القيام بذلك في المراحل المبكرة من بحث وتصميم وتطوير الذكاء الاصطناعي. ويستهدف هذا الإجراء جميع الفاعلين في منظومة الذكاء الاصطناعي (بما في ذلك ممولو البحث، صناع السياسات، الباحثين، القائمين على النشر، المستخدمين، والمطورين).
  • بناء القدرات للمجتمعات المستضعفة لتحسين مرونتها. ويستهدف هذا الإجراء صناع السياسات على المستويين المحلي والدولي.
  • معالجة المسببات الأصلية للاستضعاف، بما في ذلك مواقف تنظيمية وسياساتية أكثر صرامة لمواجهة التمييز، الغبن، عدم المساواة، والأذى المدعوم بتكنولوجيات الذكاء الاصطناعي. ويستهدف هذا الإجراء المنظمين على كافة المستويات.