أهمية حرية التعبير في نظم الذكاء الاصطناعي
ينبغي تطوير واستخدام نظم الذكاء الاصطناعي بطريقة تحترم حق الأفراد في حرية التعبير، بما في ذلك حقهم في الوصول إلى المعلومات والآراء ومشاركتها دون تدخل. وحيث أن لكل شخص الحق في حرية التعبير والرأي، ينبغي تطوير نظم الذكاء الاصطناعي بطريقة لا تقوض أو تحد من آرائه أو حقه في نشر الأفكار والمعلومات بأي وسيلة للتعبير. إضافة إلى ذلك، من المهم تضمين هذا الحق في نظم الذكاء الاصطناعي لضمان ألا تحد منه الحكومات أو أية جهات أخرى بأي صورة أو نوع من أنواع الرقابة. وينبغي أيضا أن يكون مرتكبو الخروقات عرضة للمسؤولية المدنية والجنائية والتأديبية.
كيف يمكن للافتقار إلى حرية التعبير أن يضر بالأفراد والجماعات
يعني الافتقار إلى حرية التعبير أن يكون بالإمكان استخدام الذكاء الاصطناعي لرقابة وحجب إمكانية الوصول إلى التطبيقات والمواقع الإلكترونية. ويمكن أيضا استخدامه لقمع المعارضة والسيطرة على تدفق المعلومات. يمكن لهذا أن يضر بالأفراد وجماعات الأقليات حيث يمكن نشره للحد من التعبير الحر المشروع، والتغول على قدرتهم على التعبير عن أنفسهم. ويمكن لنظم الذكاء الاصطناعي التي لم تدرب على لغات جماعات الأقلية أو لهجاتها أن تفرض رقابة على التعبير المشروع.
أمثلة للنتائج الضارة للافتقار إلى حرية التعبير
رقابة الصين المولدة بواسطة الذكاء الاصطناعي: الرقابة التي تمارسها الصين على موضوعات الدين والمجتمع والسياسة ستؤثر على الأغلب على المحتوى المولد بواسطة الذكاء الاصطناعي. على سبيل المثال، إذا حصلت أداة تعلم آلة على المعلومات من الجدار الناري العظيم للصين، فيمكن لمخرجاتها أن تعكس الانحيازات والمحاذير للمشهد المشبع بالبروباجندا والمعلومات الخاضعة للرقابة الشديدة. يمكن كمثال محدد أخذ النموذج الجديد المدعوم بالذكاء الاصطناعي لتحويل النصوص إلى صور ERNIE ViLG والذي أصدرته شركة باديو لمنافسة كل DALL-E، وMudjourney. وما يجعل هذا النموذج متفردا هو أن بإمكانه فهم التوجيهات بالصينية وأن ينتج فن أنيمي وكذلك يمكنه فهم الثقافة الصينية أفضل من الأدوات الأخرى. ومع ذلك فقد أثبت مستخدمون للنظام أنه يحجب كلمات بعينها ذات صلة بالسياسة بما في ذلك ’ميدان تيان آن من’، ’تجاوز الأسوار’، ’الثورة’ وأسماء الزعماء السياسيين المعروفين. وقد أثبتت MIT Technology Review أنه في حين أن كلمات مثل “الحكومة”، و”الديموقراطية” مسموح بها، فإن التوجيهات التي تحتويها مع كلمات أخرى بما في ذلك “الحكومة البريطانية” أو “ديموقراطية الشرق الأوسط” يتم حجبها. وقد لاحظ الموقع أيضا أن مصطلح “ميدان تيان آن من في بكين” لا يمكن إيجاده في ERNIE-ViLG غالبا لعلاقته بالمذبحة التي تحمل اسم الميدان، وهي من الإشارات المراقبة بشدة في الصين.
أداة Perspective لجوجل: يكشف هذا المثال عن سيادة الانحياز الذي قد لا يكون مقصورا على التصورات العنصرية المسبقة. فقد حاولت أداة تعلم آلة طورتها جوجل باسم Perspective أن تصنف تغريدات على تويتر ما بين سامة، وصحية. وفي حين أن الخوارزمية قد تم تعريفها بالتعليقات المهينة على مواقع التواصل الاجتماعي وطلب منها أن تجري تقييما لمنشورات تويتر فقد أظهرت ميلا لاستهداف تغريدات الأمريكيين من أصول إفريقية بالعامية الإنجليزية، مما أخل بحيادية الذكاء الاصطناعي وبقدرته على دعم حرية التعبير.
توصيات لضمان حرية التعبير في نظم الذكاء الاصطناعي
المقاربات المعنية بالحقوق: عندما تعتمد الحكومات على نظم الذكاء الاصطناعي لتنفيذ وظائف عامة محورية، ينبغي أن تضمن أن عملياتها وتصميمها يلتزمان بالمعايير الدولية لحقوق الإنسان من خلال تدقيقات متنوعة، والمشاورات العامة، والحكمة المطلوبة. وحيث أن دعم حرية التعبير هو أحد التزاماتها، فمن المهم للحكومات أن تضمن أن يتبنى القطاع الخاص مقاربات معنية بالحقوق للذكاء الاصطناعي. وينبغي أن يشمل ذلك إجراءات موجهة نحو ضمان بيئة معلوماتية تنافسية، وتعددية، ومتنوعة.
ينبغي على الشركات أيضا أن تضمن أن الذكاء الاصطناعي وغيره من التكنولوجيات المنشورة من خلال منصاتها أو المباعة لأطراف أخرى تتناغم مع معايير حقوق الإنسان. وإلى جانب الأطر القائمة على الأخلاق، فإن تصميم ونشر الذكاء الاصطناعي لتوليد وجمع وتحليل معلومات تخص المستهلك النهائي ينبغي أن تعامل المعايير الدولية لحرية التعبير على أنها المرجعية ذات الأولوية لها.
المحاسبة والشفافية: لابد للفاعلين من الدولة أو الفنيين والشركات أن يسمحوا بمشاركة جادة لأصحاب المصلحة المتعددين، بما في ذلك الفاعلين في المجتمع المدني، في وضع التنظيمات وسياسات التكنولوجيا وكذلك توجيهات الصناعة لنظم الذكاء الاصطناعي لضمان الشفافية ومشروعية المخرجات. وينبغي بشكل أكثر تحديدا أن يرافق الأطر غير الملزمة إشراف محكم وإجراءات للمحاسبة.