أهمية القابلية للمحاسبة في نظم الذكاء الاصطناعي
ينبغي على المسؤولين عن تطوير ونشر نظم الذكاء الاصطناعي أن يكونوا قابلين للمحاسبة على أثره على المجتمع، وينبغي وضع آليات لمحاسبتهم، بما في ذلك على أي أذى للأفراد أو الجماعات. فالقابلية للمحاسبة مهمة لضمان أن يلتزم المطورون والناشرون والمصممون بالتشريعات والمعايير لضمان الأداء الصحيح للذكاء الاصطناعي على طول دورة حياته.
وتعمل القابلية للمحاسبة كحجر زاوية لحوكمة الذكاء الاصطناعي. وتعترف سياسات الذكاء الاصطناعي الحالية، خاصة في أوروبا، بأن من المهم لاستخدام مساعدة الذكاء الاصطناعي أو تفويضه باتخاذ القرارات أن يتم ضمان أن هذه النظم منصفة في آثارها على حياة الناس. وينبغي أيضا أن تكون على توافق مع القيم التي لا ينبغي المساس بها وأن تعمل على هذا الأساس. والقابلية للمحاسبة مهمة أيضا لضمان الالتزام بالمعايير القانونية والأخلاقية. إضافة إلى ذلك، القابلية للمحاسبة ضرورية للإشراف، واختبار المعلومات، والحصول على الأدلة، وتقييم أداء/سلوك نظم الذكاء الاصطناعي. وأخيرا، فهي تساعد أيضا في إنفاذ القانون حيث أنها تحدد العواقب التي ينبغي على مطور الذكاء الاصطناعي أن يتحملها بما في ذلك المحظورات والتفويض بالتوافق مع الأدلة المجموعة خلال الإشراف والإبلاغ.
كيف يمكن للافتقار إلى المساءلة أن يؤدي إلى نتائج ضارة
يمكن للافتقار إلى المساءلة أن يؤدي إلى الإساءة إلى العلامة التجارية وفقدان العملاء والغرامات التأديبية. الخطر الأكبر هو عندما يؤدي خطاء للنظام إلى عواقب سلبية. على سبيل المثال، استخدام الذكاء الاصطناعي لتحديد الائتمان أو التشخيص الطبي أو الأحكام الجنائية، هي كلها مجالات يمكن لأخطاء الذكاء الاصطناعي فيها أن تؤدي إلى عواقب حادة. يمكن أيضا للافتقار إلى المحاسبة أن يجعل الذكاء الاصطناعي عرضة للانحياز حيث أنه يتعلم من البشر.
ومن الجدير بالملاحظة أيضا أن عمليات اختبار البرمجيات ليست قابلة للتطبيق لأن نماذج الذكاء الاصطناعي تتعلم الأنماط والسلوكيات من قدر هائل من البيانات مما يجعل من الصعب توقع واختبار جميع السيناريوهات الممكنة.
الإخفاق في إيجاد قابلية للمساءلة في نظم الذكاء الاصطناعي يجعل من الصعب على الشركات أن تجعل نظمها قابلة للتنبؤ أو دقيقة. وأخيرا، يؤدي الافتقار إلى المساءلة إلى دعم الانحيازات، وأحادية الرؤى، والتعدي على الخصوصية مع غياب الشفافية والرقابة الجماهيرية.
أمثلة للنتائج الضارة الناجمة عن الافتقار إلى المحاسبة في نظم الذكاء الاصطناعي
نورث بوينت COMPAS هي أداة تعمل على الوب وتستخدم خوارزمية لتقييم إمكانية أن يتحول متهم إلى معتاد للإجرام. وقد اعتقد علماء الحواسيب والباحثون في نورث بوينت أن نظامهم قد حقق تعريفا مقبولا في مجال الإحصاء. ولكن في عام 2016، قامت ProPublica بتحليل استخدام النظام في مقاطعة بروارد في ولاية فلوريدا الأمريكية، مما كشف عن أن النظام قد لعب دورا أساسيا في التنبؤ بمعاودة ارتكاب الجرائم بجودة غير متساوية للمتهمين السود والبيض، فقد ارتكب صورا مختلفة من الأخطاء المنهجية لكلا الجماعتين السكانيتين. وفد أظهر التحليل أن النظام كان أميل إلى أن يتنبأ بشكل خاطئ في حالة المتهمين من أصول أفريقية بأن يمثلوا درجة خطورة مرتفعة وبالعكس في حالة المتهمين البيض.
وقد عنى هذا أن يعامل القانون بقسوة متهمين من السود قد لا يعاودون ارتكاب الجرائم على الإطلاق في حين أن الخوارزمية قد عاملت المتهمين البيض الذين قد يعاودون ارتكاب الجرائم بتسامح أكثر. ومن ثم فقد استنتجت ProPublica أن هذا يمثل انحيازا خوارزميا بوضوح. ولم تعترف نورث بوينت بالمشكلة أو تقدم ردودا كافية عليها على الإطلاق ولا يزال نظامها مستخدما في المحاكم دون أية تغييرات.
توصيات لضمان القابلية للمحاسبة في نظم الذكاء الاصطناعي
يمكن لاستراتيجيات حوكمة الذكاء الاصطناعي أن تساعد في التعامل مع إشكاليات المحاسبة. فعلى سبيل المثال، يقترح قانون الاتحاد الأوروبي للذكاء الاصطناعي المطروح حديثا أن نظم الذكاء الاصطناعي ينبغي تصنيفها حسب مستويات خطورتها بناء على مجال تطبيقها.
ينبغي على عديد من أصحاب المصلحة أن يشاركوا في تصميم وتقييم ونشر نظم الذكاء الاصطناعي لإيضاح الأخطار الجديدة وللضمان تحقيق المنفعة لأصحاب المصلحة الرئيسيين ولإعادة تصميم إطار للمساءلة. ينبغي للمناهج والآليات التشاركية أن تنتج مشاركة ذات معنى لأصحاب المصلحة في عملية اختيار الأهداف العامة لنظام الذكاء الاصطناعي، وتطوير النموذج، وتقييم سلوكه، وتقييم ما إذا كان يحقق المخرجات المقصودة منه.
ينبغي أيضا تطوير الممارسات الفضلى للصناعة مع إقامة محفزات جديدة لالتزام الصناعة، وصياغة وإنفاذ واضحين للقوانين.
وفي حين أن العديد من الخوارزميات هي معلومات محمية فالصحفيين المهرة يمكنهم الاستعانة بآليات الهندسة العكسية لفحص ما يحتويه الصندوق الأسود. كما يمكنهم أيضا الانخراط في البحث التعاوني مع المخبرين الداخليين والأكاديميين خاصة فيما يتعلق بالخوارزميات المشخصنة.
ينبغي على الشركات كذلك أن تضمن أن سياساتها متاحة وواضحة لفرق التطوير والتصميم منذ اليوم الأول لضمان ألا يكون أي شخص في حيرة فيما يخص مشاكل المساءلة. إضافة إلى ذلك، ينبغي أن تكون الشركات على وعي بحدود مسؤوليتها ومسؤولية البرمجيات التي تطورها. وقد لا تكون لها سيطرة على كيف يمكن للعميل، أو لمصدر خارجي أو المستخدم النهائي أن يستخدم الأداة أو البيانات. وينبغي أيضا الاحتفاظ بسجلات تفصيلية لعمليات التصميم واتخاذ القرار. كما ينبغي تحديد استراتيجية للاحتفاظ بالسجلات خلال عمليات التصميم والتطوير، مما يشجع استعادة الخبرات والممارسات الفضلى، وكذلك المحاسبة والفهم، في حال ما وقع خطأ ما. هذا لأن بالإمكان استخدام السجلات لتعقب عملية التطوير، وكشف المشاكل المحتملة والتحقيق في الحوادث.