الإشراف البشري

أهمية الإشراف البشري في نظم الذكاء الاصطناعي

ينبغي تصميم واستخدام الذكاء الاصطناعي بطريقة تضمن أن تظل السيطرة للبشر، وألا يقوض الذكاء الاصطناعي استقلاليتهم أو اتخاذهم للقرارات. وهذا بشكل خاص في المجالات التي يمكن أن يكون لاستخدامه فيها أثر كبير على حقوق الإنسان، وحتى يمكن منع العواقب السلبية.كذلك من المهم أن يفهم البشر كيف يعمل الذكاء الاصطناعي وخوارزمياته، وأن يكونوا قادرين على إيضاح قراراتها.

ليس غريبا أن تكون الاستقلالية البشرية موضع الاهتمام في عمليات تصميم ونشر الذكاء الاصطناعي المعنية بالبشر، وهي قيمة محورية في حد ذاتها، مما يجعل من المهم حماية البشر في مواجهة الآثار الخطيرة للتكنولوجيا. فالاستقلالية مهمة بطرق متنوعة، وليس أقل أهمية بينها حقيقة أنها تتشابك مع قيم مختلفة بما في ذلك الكرامة الإنسانية، والشفافية، والخصوصية.

كيف يمكن للافتقار إلى الإشراف البشري أن يؤثر على الشفافية

ينبغي تصميم نظم الذكاء الاصطناعي بحيث تكون شفافة وقابلة للإيضاح والتدقيق، ليكون من الأسهل للبشر فهمها والتحكم في سلوكها. وإلى جانب تصميمها لمهام بعينها، ينبغي لهذه النظم حتى تعتبر مقبولة أخلاقيا ألا تعيق الاستقلالية البشرية. ويجعل الذكاء الاصطناعي الشفاف القيم الأساسية له صريحة، مما يشجع الشركات على تحمل مسؤولية القرارات التي تبنى عليه. وأحد الأسباب الرئيسية لخشية الناس من الذكاء الصناعي هو أنه قد يكون من الصعب فهم كيفية عمله. ففي حين أن بعض تكنولوجيات الذكاء الاصطناعي مثل خوارزميات التخطيط والتحليل اللغوي، يسهل إيضاحها، فمن الصعب إيضاح العلاقة بين المدخلات والمخرجات لتكنولوجيات الذكاء الاصطناعي الأخرى، خاصة التكنولوجيات المعتمدة على البيانات مثل تعلم الآلة. ومع ذلك، لا ينبغي أن يكون الذكاء الاصطناعي مغلقا كما يبدو. فبالإمكان فتح “الصندوق الأسود.”

ما يهم في الذكاء الاصطناعي الشفاف هو أن نتائج نظام ذكاء اصطناعي ينبغي نقلها وإيضاحها بشكل صحيح. إضافة إلى ذلك، بنبغي أن يكون أصحاب المصلحة قادرون على شرح كيف اتخذ نظام الذكاء الاصطناعي قرارا ما. كذلك يمكّن الذكاء الاصطناعي الشفاف الناس من فهم ما يحدث في نماذج الذكاء الاصطناعي. ومن ثم، فكلما ازدادت آثار خوارزميات الذكاء الاصطناعي المتقدمة، كلما كان من الضروري أن تكون قابلة للإيضاح، وأن تكون جميع الاعتبار الأخلاقية قد وُضعت في الحسبان. الإشراف البشري الفعال إذن ضروري، لضمان أن يُستخدم الذكاء الاصطناعي بطرق تتوافق مع المبادئ الأخلاقية والمتطلبات التنظيمية.

توصيات لضمان الإشراف البشري على نظم الذكاء الاصطناعي

الذكاء الصناعي المعاون: بدلا من الاعتماد على الحلول المستقلة أكثر من اللازم، من المهم تضمين حلول معاونة في الذكاء الاصطناعي لللمساعدة في العمليات المختلفة. تشمل هذه العمليات الوصول إلى توصيات قابلة للإيضاح ومبررة للمستخدمين وقياس آثار النتائج للتعلم والتحسن. يساعد الذكاء الاصطناعي المعاون الناس لاتخاذ قرارات أسرع وأفصل باستخدام المدخلات البشرية والبيانات القائمة لتقديم الإجابات. في النهاية، يبنغي للخبراء ذوي الصلة أن يتخذوا القرارات النهائية لضمان تضمين الاستقلالية البشرية في هذه النظم.

تشجيع احترام الوضع المستقل للبشر: ويتطلب ذلك الاعتراف بأن الناس قادرون على صياغة حياتهم. وهذا يعني أن المستخدمين لا ينبغي معاملتهم على أنهم غير قادرين على الحكم على الممارسات الاجتماعيةالتقنية.

تحسين الحوكمة المعلوماتية الذاتية: يمكن إدراك الحوكمة المعلوماتية الذاتية كطريقة الاستقلالية الذاتية للفرد بالتحكم في تمثيلهم الرقمي. ويمكن أن تقدم المنصات والممارسات المدعومة بالذكاء الاصطناعي إمكانية التحكم الذاتي للبشر في التمثيلات الرقمية وكذلك في أداء هوياتهم الرقمية.