أهمية التناسبية في تطوير واستخدام نظم الذكاء الاصطناعي
ينص مبدأ التناسبية في القانون الدولي على شرعية الفعل سيتم تحديدها بناء على احترام التوازن بين الهدف والطرق والوسائل المستخدمة وبين عواقب الفعل. وتتعلق التناسبية في نظم الذكاء الاصطناعي بعدة شروط ينبغي الوفاء بها حتى تبرر استخدام الذكاء الاصطناعي.
وتساعد التناسبية في حماية خصوصية البيانات بضمان أن تكون معالجة المعلومات كافية وضرورية ومناسبة وذات صلة، ولا تتجاوز غرضا محددا ومعلنا. ويعني هذا أن التناسبية في نظم الذكاء الاصطناعي تضمن أن استخدام وجمع البيانات الشخصية بحمي البيانات المجموعة. بعبارة أخرى، ينبغي لتطوير واستخدم الذكاء الاصطناعي متناسبا مع الغرض المقصود منه ولا ينبغي أن يؤدي إلى أذى أو تدخل غير ضروريين.
كيف يمكن لعدم تناسبية نظم الذكاء الاصطناعي أن يؤذي الأفراد والجماعات
تسود العنصرية البنيوية والمؤسسية والمنهجية عبر الكثير من فضاءات الحياة العام سواء في السياقات الدولية أو المحلية، بما في ذلك في الوصول إلى العدالة، والخدمات العامة، وفي التمتع بالحقوق الاجتماعية والسياسية. وتلعب تكنولوجيات الذكاء الاصطناعي والتعرف على الوجوه دورا في استدامة مثل هذه الصور من العنصرية.
وقد تعرضت خوارزميات الذكاء الاصطناعي بصفة خاصة للوم لآثارها التمييزية، وتضميناتها العنصرية والنمذجة الرقمية العنصرية. فتعامل هذه التكنولوجيات جماعات وأفراد بعينهم على أن لهم مكانة أدنى في المجتمع.
أمثلة على النتائج الضارة لنظم الذكاء الاصطناعي غير التناسبية
أوبتوم: يبرز هذا المثال نظم الذكاء الاصطناعي غير التناسبية في الصحة العامة والتي تؤدي إلى عواقب ضارة بالملونين. مقدمو الرعاية الصحية في الولايات المتحدة يحاولون عادة الحد من تعرضهم لتكاليف مرتفعة للرعاية الصحية بتبني نظم إدارة رعاية مركبة تنظم مرور الموارد “للمنتفعين ذوي التكلفة العالية.” أوبتوم المملوك لمجموعة الصحة المتحدة، هي خدمة خوارزمية تسعى إلى تيسير عملية المتعلقة بتعريف المنتفعين. وتوحي الأدلة بأن أوبتوم تخفق بشكل منهجي في إحالة الملونين للانتفاع من برامج الدعم مقارنة بالبيض. ومنطق إخفاقها هو أن خوارزميتها دربت للتنبؤ بسلوكيات الإنفاق بدلا من الرعاية بالمستشفيات، مما يحرم الملونين حيث أنهم أقل مبلا إلى السعي إلى الرعاية الطبية عند مرضهم.
توصيات لضمان التناسبية في تطوير واستخدام نظم الذكاء الاصطناعي
الحوكمة الصحيحة للبيانات: ينبغي على مقدمي نظم الذكاء الاصطناعي إنشاء ممارسات إدارة وحوكمة للبيانات وينبغي استخدام حزم بيانات ممثلة وذات صلة وكاملة.
الالتزام بقواعد التناسبية ينبغي أيضا إظهاره من خلال التوثيق التقني وتقييمات الالتزام المكونة من وصف عام لنظام الذكاء الاصطناعي، وعناصره الرئيسية (مثل تحليل وتدقيق البيانات) وكذلك المعلومات المتعلقة بعملياته، مثل مقاييس الدقة.
نظم رقابة ما بعد البيع: بعد بيع أو تنفيذ نظام عالي الخطورة، ينبغي أن يطور مقدموه نظام تناسبي للرقابة ما بعد البيع تكون مهمته المركزية هي جمع البيانات حول عمليات النظام لضمان أنه يلتزم باستمرار بالتنظيمات ويقوم بالتصحيح عند الضرورة. وتتطلب النظم التي تستمر في التعلم بعد تنفيذها تقييمات التزام جديدة عند طروء تعديلات كبيرة على التعليم.
آليات الإشراف: ينبغي أن تصمم نظم الذكاء الاصطناعي عالية الخطورة لتمكين المستخدمين من الإشراف عليها أو متابعتها لوقف أو تحجيم الأضرار أو الأخطار المحتملة. ومن المهم أن تمكن خواص التصميم المستخدمين من البشر من الامتناع عن الاعتماد المبالغ فيه على مخرجات النظام، حيث أن هذا يستتبع الانحياز للأتمتة، وينبغي أن تسمح لأشخاص محددين بالمتابعة بحيث يمكنهم تخطي مخرجات النظام واستخدام مفتاح الإيقاف.