أهمية تعاون أصحاب المصلحة المتعددين في تطوير واستخدام نظم الذكاء الاصطناعي
ينبغي أن يكون تطوير الذكاء الاصطناعي مدعوما بمعرفة المشاركة العامة ويتضمنها، خاصة من قبل المجموعات الأكثر تأثرا باستخدامه. إضافة إلى ذلك، ينبغي أن ينطوي تطوير الذكاء الاصطناعي على التعاون بين أصحاب مصلحة مختلفين بما في ذلك الحكومات، ومنظمات المجتمع المدني، والأكاديميا، والقطاع الخاص. كما يشمل ذلك أيضا مدخلات الخبراء في مجالات مثل الأخلاقيات والقانون، والعلوم الاجتماعية.
وأصحاب المصلحة هم أشخاص ذوي مصالح أو تأثير في تطوير منتج ذكاء اصطناعي. ولذا فثمة حاجة إلى تحديد وإعطاء أولوية لأصحاب المصلحة ولأدوارهم ومخاوفهم وتوقعاتهم. ومن المهم توصيل عرض القيمة، والرؤية، وخارطة الطريق لتطوير منتج الذكاء الاصطناعي إلى أصحاب المصلحة، والحصول على متطلباتهم وتعليقاتهم وتضمينها في معايير قبول المنتج وفي سجله.
ينبغي شرح وعرض تطوير منتج الذكاء الاصطناعي على أصحاب المصلحة وجمع تعليقاتهم. فمقاربة أصحاب المصلحة المتعددين مهمة لقدرة الذكاء الاصطناعي على تضخيم الانحيازات غير المنصفة. وثمة مخاطرة بشكل خاص بأن يرتكب المطورون وعلماء البيانات “أخطاء سببية” حيث يمكن إدراك علاقة بشكل خاطئ على أنها تشير إلى سبب وأثر. وينتج عن هذا النوع من الافتقار إلى الفهم تصميمات مبنية على افتراضات سببية خاطئة ومفرطة التبسيط تتجاهل عوامل مجتمعية هامة ومن ثم يمكن أن تؤدي إلى مخرجات ضارة وغير مقصودة. وللحد من هذه المخاطرة، ينبغي تضمين السياق المجتمعي في تطوير نظم الذكاء الاصطناعي.
مع ذلك، لا يمكن لخوارزمية أو لشخص أن يرى تعقيد المجتمع في مجمله أو أن يفهمه بشكل كامل. نتيجة لذلك، وللتعامل مع هذه النقاط العمياء الحتمية ولضمان ابتكار مسؤول، ينبغي على التكنولوجيين أن يتعاونوا مع أصحاب المصلحة لتطوير فرضية مشتركة لكيفية عملهم. ويعني هذا أن الجهود التعاونية يمكنها أن تؤدي إلى ذكاء اصطناعي أكثر شمولا ومسؤول اجتماعيا.
توصيات لضمان تعاون أصحاب المصلحة المتعددين في تطوير واستخدام نظم الذكاء الاصطناعي
المستخدمون: ينبغي أن ينخرط المستخدمون في عملية تطوير الذكاء الاصطناعي من الفكرة الأولية وحتى مراحل التقييم. ولتحقيق ذلك، ينبغي إجراء بحث للمستخدمين لفهم احتياجات وتوقعات ونقاط ألم المستخدم. إضافة إلى ذلك، ثمة حاجة إلى للخلق المشترك لسيناريوهات ورحلات وشخصيات المستخدم لتمثيل سياقات ومقاطع المستخدم. ينبغي للمستخدمين الحقيقيين أيضا أن يطلعوا على النماذج الأولية لمنتجات الذكاء الاصطناعي وأن يختبروها. وما هو أكثر أهمية، ينبغي أن يضع سلوك المستخدم وتعليقاته الأساس لتحسين منتجات الذكاء الاصطناعي.
معايير القبول: تشير هذه إلى الشروط التي ينبغي على منتج الذكاء الاصطناعي أن يحققها حتي يقبله المستخدم وأصحاب المصلحة، مما يساعد على ملاءمة أهداف وتوقعات أصحاب المصلحة والمستخدمين وفريق الإنتاج. ومن الضروري لمنتجات الذكاء الاصطناعي أن تتجاوز معايير القبول المتطلبات الوظيفية وغير الوظيفية لتركز على العواقب القانونية والأخلاقية والاجتماعية لحل الذكاء الاصطناعي.
بعض الأمثلة على هذه المعايير هي القابلية للإيضاح، والموثوقية والدقة لاحترام حل الذكاء الاصطناعي لأمن وخصوصية المستخدمين وكذلك بياناتهم، والتزامه بالتنظيمات والقوانين ذات الصلة، وتجنبه للأذى والتمييز والانحياز ضد المجتمع والمستخدمين.
رسم خريطة لأصحاب المصلحة المسؤولين عن حوكمة الذكاء الاصطناعي: عادة ما يرى تطوير المعايير القياسية كمهمة تقنية، ولكن من المهم تضمين طيف واسع من الناس، بما في ذلك الباحثين والحكومات والأعمال في عملية خلق ونشر وإنفاذ المعايير. فهذا يساعد على بناء الثقة وضمان قبول وتبني المعايير على نطاق واسع.