حظر المراقبة الجماعية

أهمية حظر المراقبة الجماعية في نظم الذكاء الاصطناعي

ينبغي ألا تستخدم نظم الذكاء الاصطناعي لأغراض المراقبة الجماعية أو لجمع وتحليل البيانات الشخصية دون موافقة مسبقة أو مسوع قانوني. حظر المراقبة الجماعية في نظم الذكاء الاصطناعي أمر بالغ الأهمية للحد من الأخطار الكبيرة المتصلة بالحصول على تكنولوجيات المراقبة وتطويرها. على سبيل المثال، يساعد الحظر على ردع النمذجة غير الدقيقة وغير المنصفة لجماعات الملونين. كذلك تساعد في حماية حقوق الإنسان الأساسية، خاصة تلك التي بمكن أن تنتهكها المراقبة الجماعية باستخدام القياسات البيولوجية.

كيف يمكن للمراقبة الجماعية أن تضر بالأفراد والجماعات

لقد أثر جمع البيانات والمراقبة على جماعات الملونين بشكل غير متناسب في ظل كل من الظروف الحالية والماضية. وعادت ما تظهر أنماط المراقبة الانحيازات المجتمعية القائمة وتبني على دورات مقفلة وضارة. وتؤدي تكنولوجيا التعرف على الوجوه مع غيرها أيضا إلى تمييز أكثر تحديدا خاصة مع استمرار وكالات إنفاذ القانون في اتخاذ قرارات تنبؤية وغير مبنية على معلومات بخصوص التوقيف والاحتجاز واللذان يؤثران بشكل غير متناسب على الجماعات السكانية المهمشة. وتؤدي المراقبة الجماعية أيضا إلى تعقب المواقع والذي يستتبع ضررا محتملا حيث يسمح بالتعقب المادي للفرد مما يسمح للجهة المعنية باستنتاج تفاصيل إضافية مثل الديانة والصحة والتوجه الجنسي و العلاقات الشخصية. وتنتهك المراقبة الجماعية باستخدام القياسات البيولوجية حرية التعبير والمشاركة العلانية المفتوحة حيث أن الشعور بالخضوع للمراقبة يجعل الناس يغيرون سلوكياتهم ويمارسون رقابة ذاتية.

أمثلة على النتائج الضارة للمراقبة الجماعية في نظم الذكاء الاصطناعي

مبادرة الصين: أطلقتها وزارة العدل الأمريكية في عام 2018 وكانت جهدا حكوميا للمراقبة الجماعية موجه إلى منع سرقة الملكية الفكرية والتجسس، وقد انتهت رسميا في فبراير عام 2022. وفي حين سعت المبادرة إلى مواجهة تهديدات للأمن القومي من قبل الحكومة الصينية، إلا أنها قد أدت إلى عدم ثقة ونمذجة عنصرية على نطاق واسع للأكاديميين الصينيين الأمريكيين، بما في ذلك مواطنين أمريكيين لا علاقة لهم بالحزب الشيوعي الصيني. وقد أدت المبادرة أيضا إلى عدت من حالات التوقيف الخاطئة لأكاديميين. وقد ألغيت مبادرة الصين بعدما ثبت عدم فعاليتها ولأنها خلقت مناخا من الحوف بين الأمريكيين الآسيويين. فقد شعر كثير من الآسيويين الأمريكيين بأنهم مستهدفون بشكل غير منصف وبأنهم يعاملون كجواسيس محتملين.

توصيات لحظر المراقبة الجماعية في نظم الذكاء الاصطناعي

تحسين القوانين الحالية: ثمة فجوات كثيرة في قوانين الخصوصية الحالية، مما يعني أن جمع ومشاركة البيانات لا يتم تحديهما. لذا، ثمة حاجة إلى أن تحظر تشريعات الخصوصية استخدام الذكاء الاصطناعي للمراقبة الجماعية وللسيطرة على كيفية تضمين شركات القطاع الخاص للإنصاف في عملية التطوير التقني وتحد من جمعها للبيانات وكذلك من مشاركتها مع طرف ثالث.

تقييم المساواة: ينبغي أن يمتد دور تقييم المساواة إلى قياس مدى سلامة التعرف على الوجوه والآثار على الخصوصية للجماعات المهمشة. ويمكن لتقييمات الأثر الخوارزمي أيضا أن تكون ضرورية لمساعدة الشركات أو الوكالات الحكومية في تقييم الأضرار المحتملة على الجماعات، أو التمييز، أو خطر الانحياز.