أهمية الأمن في نظم الذكاء الاصطناعي
ينبغي تصميم واستخدام نظم الذكاء الاصطناعي بطريقة تضمن أمنها، بما في ذلك الحماية في مواجهة الهجمات السيبرانية والوصول غير المصرح به. وفقد أصبح أمن البيانات بشكل متزايد عنصرا هاما في أي نظام ذكاء اصطناعي حيث أن هذه النظم تعتمد عادة على كميات كبيرة من البيانات لاتخاذ قراراتها. ويمكن للبيانات أن تكون معلومات حساسة بما في ذلك السجلات المالية، والصحية والتفاصيل الشخصية. وتساعد حماية مثل هذه البيانات في منع الاستغلال والوصول غير المصرح بهما للبيانات. كما يساعد تضمين الأمن في نظم الذكاء الاصطناعي أيضا في دعم أمن شبكات الحواسيب والبيانات.
كيف يمكن للافتقار إلى الأمن أن يؤدي إلى نتائج ضارة
تهدد اختراقات البيانات بعواقب غير مرغوبة. فهي تخل بتكامل بيانات الأفراد والمنظمات الذين تخترق بياناتهم. وإلى جانت الإضرار بالسمعة والأضرار المالية، يمكن لاختراقات البيانات أيضا أن تؤدي إلى تدني الثقة بنظم الذكاء الاصطناعي وبقدرتها على حماية البيانات الحساسة. وتنشأ العديد من التحديات نتيجة لتصميم نظم تعلم الآلة والذكاء الاصطناعي لتقدم مخرجاتها بعد استهلاك وتحليل كميات كبيرة من البيانات. وقد أنشأت MIT Sloan ملخصا لهذه التحديات بتنظيم أوجه الضعف عبر خمسة أصناف حسب كل من: أخطار النظام، والعامل البشري، والبيانات، والبرمجيات، والتواصل. ويمكن للإخفاق في معالجة تحديات الأمن هذه في نظم الذكاء الاصطناعي أن يؤدي إلى أنواع مختلفة من الهجمات التي يمكن استخدامها لاستغلال ومهاجمة نماذج تعلم الآلة. ويمكن استخدام هذه الهجمات بطرق متنوعة لتحقيق أغراض خبيثة، بما في ذلك التسبب في أضرار، إخفاء شيء ما، وخفض الثقة في نظام ما. ويمكن للهجمات على النموذج أن تكون:
- هجمات استغلال وتسميم البيانات: يعود تسميم البيانات إلى العبث بالبيانات الخام التي يستخدمها نموذج تعلم الآلة/الذكاء الاصطناعي. ومن المشاكل الخطيرة لاستغلال البيانات هو أن من الصعب تغيير النماذج بعد الكشف عن مخرجات خاطئة.
- هجمات تسميم النموذج: نتيجة للعبث بالخوارزمية القائمة يمكن للمهاجمين التأثير على قراراتها.
- هجمات كشف النموذج: وتحدث عندما يقدم المهاجم مدخلات مصممة ويفحص المخرجات الناتجة من الخوارزمية.
- سرقة النماذج: يمكن لهذا أن يسمح للمهاجمين بالحصول على بيانات حساسة استخدمت في تدريب النموذج، أو باستخدام النموذج لمنافع مالية، أو التأثير في القرارات. وكمثال على ذلك إذا ما فهم فاعل سيئ النية العوامل الموضوعة في الاعتبار عند إطلاق تحذير ما، فيمكنه أن يجد طريقة لتفادي هذه الإشارات.
أمثلة للأضرار الناتجة عن الافتقار للأمن في نظم الذكاء الاصطناعي
نايت كابيتال: كمثال لنتائج ضارة، فقدت نايت كابيتال 460 مليون دولار خلال 45 دقيقة بسبب عيب في خوارزمية التجارة الخاصة بالشركة. وقد هوى ذلك بالشركة إلى مشارف الإفلاس وأن يتمكن منافسوها من الاستحواذ عليها خلال فترة قصيرة. وفي حين لم تكن المشكلة ذات صلة بسلوكيات خاطئة في هذه الحالة بعينها، فهي توضح الأثر المحتمل لخطأ خوارزمية وللإخفاء في تضمين الأمن في نظام ذكاء اصطناعي.
سيارات تيسلا الموجهة ذاتيا: يمكن للمهاجمين أن يرغبوا في التسبب بأضرار بمحاولة عرقلة عمل نظام الذكاء الاصطناعي. وعلى سبيل المثال، يمكن لهجوم أن يجعل سيارة موجهة ذاتيا تتجاهل إشارات التوقف بمهاجمة نظم الذكاء الاصطناعي بحيث تتعرف بشكل غير دقيق على إشارة توقف على أنها رمز أو إشارة أخرى. ومن ثم، يمكن للإخفاق في تضمين إجراءات سلامة وأمن كافية في الذكاء الاصطناعي أن يتسبب في كوارث. وعلى سبيل المثال، استعادت تيسلا أكثر من 50 ألف سيارة في الولايات المتحدة حيث كان الذكاء الاصطناعي وراء خاصية القيادة الذاتية لها متهورا أكثر مما ينبغي، مما أدى بالسيارات إلى أن تتخطى إشارات التوقف. نتيجة لذلك، أصدرت الإدارة القومية للمرور على الطرق السريعة في الولايات المتحدة أمر استدعاء لدواعي السلامة للسيارات التي كانت تستخدم نسخة 2020.40.10 من نظام التحكم.
توصيات لضمان أمن أنظمة الذكاء الاصطناعي
التشفير: يتطلب التشفير تحويل البيانات إلى كود لمنع الوصول غير المصرح به. ويمكن لتشفير البيانات أن يدعم نظم الذكاء الاصطناعي لضمان أنه حتى في حالة وقوع اختراق، ستظل البيانات غير قابلة للقراءة ومحمية ممن لا يملكون مفتاح التشفير الصحيح. ويمكن تشفير البيانات في حال ثباتها وكذلك عند نقلها مما يوفر طبقات متعددة من الحماية.
حل سياسة التزام الذكاء الاصطناعي بالأمن: ثمة حاجة إلى خلق التزام للذكاء الاصطناعي بالأمن كآلية عامة رئيسية للحماية من هجمات الذكاء الاصطناعي. وينبغي لكل بلد أن ينشئ برامج التزام للحد من التعرض للهجمات على نظم الذكاء الاصطناعي وللتقليل من حدة الآثار الضارة للهجمات الناجحة. ويمكن لهذه البرامج أن تشجع أصحاب المصلحة على تبني ممارسات فضلى متنوعة لتأمين نظمهم وجعلها أكثر قوة في مواجهة هجمات الذكاء الاصطناعي.
متطلبات الالتزام في مرحلة التنفيذ: تركز هذه المتطلبات على ضمان أن يأخذ أصحاب المصلحة خطوات احترازية بينما يطورون ويستخدمون نظم الذكاء الاصطناعي. وهي تشمل تأمين الأصول البرمجية وتحسين نظم الكشف والتي يمكن أن تعطي تحذيرات عند تطوير/صياغة الهجمات. وتلك المتطلبات هي:
- تأمين الأصول البرمجية: يحتاج مشغلو نظم الذكاء الاصطناعي إلى تأمين الأصول التي يمكن استخدامها لتشكيل هجمات ذكاء اصطناعي، بما في ذلك النماذج وحزم البيانات. كما يحتاجون إلى تحسين الأمن السيبراني للنظم حيث يتم تخزين الأصول. وينبغي للتطبيقات الأساسية التي تنشر الذكاء الاصطناعي أن تتبنى حزمة من الممارسات الفضلى حتى توثق من أمن هذه الأصول.
- تحسين الكشف عن تطور التسلل والهجوم: ينبغي تحسين نظم كشف التسلل حتى تكشف بشكل أفضل إذا ما تم الإخلال بالأصول والأنماط السلوكية التي تشير إلى أن طرفا معاديا يعد لهجوم. ويحتاج صانعو السياسات إلى تشجيع كشف أفضل للتسلل للنظم التي تحتوي على أصول حيوية. وبعد اكتشاف مشغل نظام أن ثمة تسلل يتم ومن شأنه الإخلال بالنظام أو أن ثمة هجوم يتم الإعداد له، فسمة حاجة إلى أن ينتقلوا فورا إلى حالة الحد من الأضرار. ومن ثم، فمن الضروري أن يكون لمشغلي الأنظمة خطط تحدد الخطوات بعينها التي ينبغي تنفيذها إذا كان ثمة إخلال بالنظام وأن ينفذوا هذه الخطط على الفور.
- تطوير خطط للاستجابة: من المهم التأكد من سبل الاستخدام الأكثر احتمالا لهجمات الذكاء الاصطناعي وتطوير خطط استجابة لمثل هذه السيناريوهات. بشكل مثالي، ينبغي لأصحاب المصلحة أن يحددوا كيف يمكن استخدام هجمات الذكاء الاصطناعي ضد أنظمتهم وأن يطوروا خطط استجابة للتقليل من آثارها. ويحتاج أصحاب المصلحة، بينما يحددون الهجمات الأكثر احتمالا، أن يقيموا التهديدات القائمة وأن يصمموا خطط استجابة مناسبة.
- رسم خريطة نقاط الضعف: من الضروري خلق خرائط توضح كيف للإخلال بنظام أو بأحد الأصول أن يؤثر على كل نظم الذكاء الاصطناعي من خلال التبادل السريع لخرائط نقاط الضعف.