أهمية ضمان الاستخدام الأخلاقي للذكاء الاصطناعي في إنفاذ القانون
ينبغي أن ترشد المبادئ الأخلاقية تطوير واستخدام الذكاء الاصطناعي في إنفاذ القانون، بما في ذلك احترام افتراض البراءة، والحق في الإجراءات السليمة، وتجنب المخرجات التمييزية أو المنحازة. في حين أن استخدام الذكاء الاصطناعي في إنفاذ القانون قد يساعد في تحسين السلامة العامة، فثمة مخاوف حول الانحياز والدقة والخصوصية.
يمكن للبيانات المستخدمة لتدريب نظم الذكاء الاصطناعي ألا تكون دقيقة أو غير كاملة. يمكن لهذا أن يحدث إذا ما كان منفذي القانون يرتكبون أخطاءً عند إدخال البيانات في النظام، أو إذا ما تجاهلوا بيانات مهمة. البيانات الجنائية عادة ما لا تكون موثوقة، وهم ما يجعل هذه المشكلة أسوأ.
إضافة إلى ذلك، يمكن للبيانات أن تكون منحازة، مع التمثيل الجنائي المفرط لبعض الفئات السكانية والمناطق. كما يمكن أن يظهر التمثيل المفرط أبضا من الفترات التي تشارك فيها الشرطة في ممارسات تمييزية ضد بعض الجماعات، مما يؤدي إلى تصنيف بعض المناطق بعينها على أنها عالية الخطورة. مثل هذه الانحيازات الضمنية في حزم البيانات التاريخية تؤدي إلى عواقب بالغة الضرر للجماعات المستهدفة. في هذا الخصوص، يمكن لاستخدام التنبؤ الشرطي للذكاء الاصطناعي أن يفاقم التحليلات المنحازة وقد تم ربطه في بعض الحالات بالنمذجة العنصرية.
كمثال محدد ثمة قضايا فيرمون بارتر (رجل أبيض في الحادية والأربعين من عمره أدين سابقا بالسطو المسلح وسجن لخمسة أعوام) وبريشا بوردين (فتاة سوداء في الثامنة عشر من عمرها بدون أي إدانات سابقة). اتهما كلاهما بسرقة قيمتها حوالي 80 دولارا في عام 2014. ومع ذلك، اقترحت خوارزمية الذكاء الاصطناعي COMPAS والتي تستخدمها أقسام الشرطة لإجراء تقييمات الخطورة أن بوردين كانت عرضة لخطر مرتفع للإدانة في المستقبل، في حين أن بارتر حصل على تقييم خطر منخفض، مما يظهر أن خوارزمية الذكاء الاصطناعي كانت منحازة ضد بوردين.
ومن ثم، ينبغي بذل جهد لضمان أن يكون استخدام الذكاء الاصطناعي في إنفاذ القانون أخلاقيا ويحترم حقوق الإنسان. وهذا ضروري للتخلص من الانحياز الاختياري الذي يظهر عادة في الممارسات الشرطية المبالغ فيها ضد أفراد ومناطق بعينها.
توصيات لضمان الاستخدام الأخلاقي للذكاء الاصطناعي في إنفاذ القانون
المقاربة الشاملة: ينبغي تبني مقاربة شاملة لضمان أن الوصول إلى فوائد تكنولوجيا الذكاء الاصطناعي متاح للجميع، مع اعتبار الاحتياجات المحددة للجماعات اللغوية، والعمرية، والنظم الثقافية المتنوعة، وكذلك الأفراد المهملون والمستضعفون والمهمشون. ينبغي أن تسعى الحكومات حثيثا إلى تقديم وصول شامل للجميع إلى نظم الذكاء الاصطناعي. كما ينبغي أيضا أن تسعى إلى علاج التباينات الرقمية وإلى ضمان وصول شامل إلى تطوير الذكاء الاصطناعي والمشاركة فيه.
الإشراف والقرار البشري: ينبغي أن تضمن الحكومات إمكان نسبة مسؤوليات قانونية وأخلاقية عن أية مرحلة من دورة حياة نظم الذكاء الاصطناعي، وحالات المسؤولية ذات الصلة بالتعويض، إلى نظم الذكاء الاصطناعي، أو الأشخاص الطبيعيين، أو الكيانات القانونية القائمة. إضافة إلى الحق في تحدي قرارات الذكاء الاصطناعي.
تطوير توجيهات أخلاقية: ينبغي تطوير هذه التوجيهات بالتشاور مع طيف واسع من أصحاب المصلحة بما في ذلك وكالات إنفاذ القانون، ومنظمات المجتمع المدني، والأكاديميين. وينبغي تأسيس التوجيهات على مبادئ حقوق الإنسان كما ينبغي أن تعالج مشاكل مثل الشفافية والمحاسبة والإنصاف وعدم التمييز.
تقديم التدريب لمسؤولي إنفاذ القانون: ينبغي أن يغطي هذا التدريب الفوائد والمخاطر المحتملة للذكاء الاصطناعي، وكذلك التوجيهات الأخلاقية التي تم تطويرها. وينبغي أيضا تدريب المسؤولين على كيفية كشف ومعالجة الانحياز في نظم الذكاء الاصطناعي.
جعل نظم الذكاء الاصطناعي شفافة وقابلة للإيضاح: وسيمكن هذا مسؤولي إنفاذ القانون والجمهور من فهم كيف تتخذ نظم الذكاء الاصطناعي القرارات، ومن كشف وتحدي أية انحيازات قد تكون موجودة.