الشفافية

أهمية الشفافية في نظم الذكاء الاصطناعي

ينبغى أن يكون جميع المطورين شفافين فيما يخص الغرض من نظم الذكاء الاصطناعي الخاصة بهم ونطاقها وعملها، بما في ذلك الخوارزميات، البيانات المدخلة، وعمليات اتخاذ القرار. فالشفافية ضرورية لضمان تطوير الذكاء الاصطناعي بشكل يتوفر له الوضوح فيما يخص المنافع والمخاطر. وهي تساعد على ضمان وضع المشاكل الأخلاقية في الاعتبار. فنظم الذكاء الاصطناعي يمكن اعتبارها أخلاقية فقط بقدر أخلاقية الخوارزميات والبيانات المستخدمة لخلقها.

وتساعد الشفافية إضافة إلى ذلك على بناء الثقة في إطار النظم المؤتمتة. وإلى جانب هذه الفوائد، تسهل الشفافية الرقابة الجماهيرية على عملية التطوير، ومن ثم تساعد على كشف أي مشاكل محتملة قبل أن تتفاقم. إضافة إلى ذلك تؤدي الشفافية إلى التطوير المسؤول للذكاء الاصطناعي. فعملية التطوير المتاحة والمفتوحة تضمن أن يكون المطورون قابلين للمحاسبة على أي مشاكل محتملة قد تظهر. ويمكن لذلك أن يساعد على منع تطوير نظم ذكاء اصطناعي منحازة أو تمييزية.

كيف يمكن للافتقار إلى الشفافية أن يؤدي إلى نتائج ضارة

يجعل الافتقار إلى الشفافية في نظم الذكاء الاصطناعي من الصعب تطبيقها في العالم الواقعي، ومن ثم يصبح العمل المبذول في تطويرها بلا قيمة عندما لا تكون النتائج قابلة لإعادة الإنتاج. ويؤدي الافتقار إلى الشفافية إلى عدم ارتياح يعيق قبول ونشر التكنولوجيا الجديدة. فمشكلة “الصندوق الأسود” أو الطبيعة المعتمة لكيفية اتخاذ الذكاء الاصطناعي للقرارات تجعل الناس غير واثقين في الإجراءات المتخذة.

ويضر الافتقار إلى الشفافية في الذكاء الاصطناعي في منظمة ما بالثقة فيه بصفة عامة. فالإخفاق في الكشف عن كل من كود المصدر والنموذج الرياضي ومدخلات ومخرجات نموذج تعلم الآلة وبيانات تدريبه يمكن أن يجعل المنظمة عرضة لفقدان ثقة عملائها. وعندما يتصرف نظام تعلم آلة بشكل غير منصف من حيث المكانة أو العرق أو الجندر فإن ذلك يمكن أن يؤدي إلى فقدان ثقة العملاء الحاليين. ويمكن لمثل هذه المنظمات أيضا أن تتعرض للتدقيق التنظيمي والجماهيري، ومن ثم فقدان علامتها التجارية. كذلك يمكن للشركات أن تعاني من مصدر آخر للمخاوف فيما يتعلق بالشفافية وهو أنها في خضم رد الفعل الجماهيري بسبب شبهات التمييز أو الانحياز قد تضطر إلى وقف استخدام نظامها أو حتى تأجيل نشره مما يؤدي إلى عرقلة عملياتها.

أمثلة على النتائج الضارة بسبب الافتقار إلى الشفافية في نظم الذكاء الاصطناعي

أمازون: كان على الشركة أن توقف استخدام أداتها للتوظيف المميكن حيث فضل النموذج الذي بنيت عليه المتقدمين من الذكور للمناصب الفنية، مما أدى إلى نقد شديد اتهم أمازون بدعم التمييز الجندري في التكنولوجيا.

جوجل: تعد الخوارزمية الحاكمة لماكينة بحث جوجل هي أشهر خوارزميات الصندوق الأسود وأكثرها تعرضا للدراسة. ففي حين يتأثر التموضع على الوب بعوامل محددة فلا أحد خارج الشركة يفهم على وجه التحديد كل المتغيرات التي تؤثر في ترتيب صفحة على الوب، ولا الوزن النسبي لهذه المتغيرات. وقد ثار موظفو جوجل في عام 2019 بسبب الذكاء الاصطناعي والشفافية. وطالب عديد من موظفي جوجل الشركة مشروعها المسمى بدراجون فلاي، وهي ماكينة بحث للحكومة الصينية. وكانت دراجون فلاي قبل ذلك عرضة للهجوم من قبل كل من السياسيين وجماعات حقوق الإنسان لدورها المفترض في الرقابة على الإنترنت. وكانت إحدى المشاكل الرئيسية لدراجون فلاي أن جوجل كان عليها الموافقة على مشاركة بيانات الذين أجروا بحثا على كلمات مفتاحية مثل الديموقراطية وحقوق الإنسان أو الدلاي لاما مع السلطات الصينية.

توصيات لضمان الشفافية في نظم الذكاء الاصطناعي

الذكاء الاصطناعي القابل للإيضاح (XAI): يمكن الوصول إلى الشفافية في الذكاء الاصطناعي باستخدام تكنولوجيا الذكاء الاصطناعي القابل للإيضاح (XAI). وتقدم XAI طريقة لإيضاح الإجراءات والقرارات التي يتخذها نظام ذكاء اصطناعي بطريقة يمكن للبشر فهمها. ويضمن هذا أن تتخذ نظم الذكاء الاصطناعي قراراتها بشكل أخلاقي ومسؤول. إضافة إلى ذلك، يمكن للتكنولوجيا أن تساعد في كشف الانحيازات المحتملة لنظم الذكاء الاصطناعي، مما يضمن أن يتم علاجها قبل أن تتفاقم. وبعبارة أخرى يساعد الذكاء الاصطناعي القابل للإيضاح على فهم كيف اتخذ نظام ذكاء اصطناعي قرارا بعينه.

متعقبات التدقيق: استخدام متعقبات التدقيق هو طريقة أخرى لدعم الشفافية. فهي تسجل الإجراءات والقرارات التي تتخذها نظم الذكاء الاصطناعي، مما يسهل مراجعة هذه الإجراءات والقرارات. ويساعد هذا على ضمان أن تعمل نظم الذكاء الاصطناعي بشكل أخلاقي ومسؤول.

تكنولوجيا الذكاء الاصطناعي مفتوح المصدر: تسمح بفحص ومراجعة نظم الذكاء الاصطناعي مما يسهل الكشف عن المشاكل المحتمل ويساعد على تحسين نظم الذكاء الاصطناعي.

تحجيم البيانات: واحدة من مبادئ خصوصية البيانات التي تركز على الحاجة إلى جمع ومعالجة أقل قدر ممكن من البيانات الضرورية لأغراض الذكاء الاصطناعي. ويساعد هذا على الحد من أخطار إساءة استخدام البيانات والتمييز والاختراق. وينبغي أن تكون البيانات المجموعة أيضا دقيقة ومحدثة وذات صلة. ومن ثم، فمن المهم خلق نظم ذكاء اصطناعي غير تمييزية ومساواتية ودقيقة باستخدام حزم بيانات غير منحازة.

البيانات القابلة للإيضاح: ينبغي تضمين هذا المبدأ في ممارسات وقرارات الذكاء الاصطناعي لتقديم إيضاحات ذات معنى وواضحة لكيفية عمل نظم الذكاء الاصطناعي وما تقوم به. وينبغي إتاحة كل من المعايير والمنطق والأدلة المستخدمة في كل من اتخاذ الذكاء الاصطناعي لقراراته وللمخرجات. وينبغي أيضا لتلك أن تكون متاحة ومفهومة لأصحاب المصلحة في البيانات. ومن المهم كذلك أن تمكن الشركات آليات المراجعة والتعليق، وأن تسمح بالإشراف أو التدخل البشري عند الضرورة. ويمكن للبيانات القابلة للإيضاح أن تساعد في تحسين القابلية للمساءلة والشفافية في نظم الذكاء الاصطناعي. ما هو أكثر أهمية هو أن البشر ينبغي أن يكونوا منخرطين في العملية بضمان أن يشاركوا في مراجعة القرارات لوقف الأخطاء والأحكام المسبقة التي عادة ما تؤثر على مشروعات الذكاء الاصطناعي.