تنظيم الذكاء الاصطناعي: مقاربات لضمان الاستخدام الآمن للتقنية

مقدمة

كان عام 2023 في جانب كبير منه هو عام صعود تكنولوجيا الذكاء الاصطناعي إلى قمة أولويات الاهتمام العالمي. الحدث الذي حفز ذلك الاهتمام الضخم كان طرح شركة أوبن-إيه-آي OpenAI تطبيق المحادثة تشات-جي-بي-تي ChatGPT للاستخدام العام المجاني من خلال شبكة الإنترنت في معظم دول العالم.

ظهرت خلال الأعوام السابقة تطبيقات مثيرة للاهتمام لتكنولوجيا الذكاء الاصطناعي واجتذبت قدرًا متفاوتًا من اهتمام الرأي العام. لكن تطبيقات الذكاء الاصطناعي التوليدي Generative AI، ونماذج اللغة الضخمة Large Language Models التي تنافست شركات التكنولوجيا الكبرى في تطويرها وإتاحتها للاستخدام على نطاق واسع مثلت بداية لمرحلة جديدة في تاريخ التعامل مع تكنولوجيا الذكاء الاصطناعي. هذه المرحلة تحمل كثيرًا من الوعود والتطلعات، كما تحمل كثيرًا من المخاوف والمحاذير والتهديدات أيضًا.

مثل غيرها من المجالات الحيوية للمصالح العامة والخاصة على السواء فإن تسارع تطور تكنولوجيا وصناعة الذكاء الاصطناعي قد أحدث جدلًا حول الحاجة إلى وضع أطر تنظيمية لها. وكما هو الحال مع تكنولوجيات أخرى عابرة بطبيعتها لحدود السلطة التشريعية للدول القومية، مثل تكنولوجيا شبكة الإنترنت، فإن الحديث عن تنظيم صناعة الذكاء الاصطناعي كان ولا يزال صاخبًا ومتشعبًا. يشمل هذا الحديث عددًا لا حصر له من الرؤى المتباينة التي تتراوح بين دعاوى مطالبة بتنظيم صارم وبين أخرى رافضة لفرض أي أطر تنظيمية من خارج الكيانات القائمة على تطوير تكنولوجيا الذكاء الاصطناعي نفسه.

بغض النظر عن المواقف المختلفة من تنظيم تكنولوجيا وصناعة الذكاء الاصطناعي، فإن أشكاًلا مختلفة من هذا التنظيم قد بدأت في الظهور بالفعل. أبرز محاولات التنظيم هو قانون الاتحاد الأوروبي للذكاء الاصطناعي، الذي بدأ العمل عليه منذ عام 2021، وأقر رسميًا في مارس 2024، وينتظر أن يتم إصداره في وقت قريب. وفي حين أن ظهور وتطبيق أطر تنظيمية لتكنولوجيا الذكاء الاصطناعي هو عملية قد بدأت بالفعل فإن نضجها هو أمر لا ينتظر أن يتحقق في وقت قريب. ومن ثم فإن مشهد تنظيم تكنولوجيا الذكاء الاصطناعي مرشح لأن يزداد تعقيدًا مع الوقت.

تسعى هذه الورقة إلى تقديم صورة مبسطة للمشهد المعقد لمساعي تنظيم تكنولوجيا وصناعة الذكاء الاصطناعي. تطرح الورقة سؤال ما إذا كان تنظيم الذكاء الاصطناعي ضرورة، وتتطرق إلى تساؤلات أخرى حول من ينبغي أن يتولى مسؤولية وضع الأطر التنظيمية للذكاء الاصطناعي، وما هي الجوانب التي ينبغي لهذه الأطر التنظيمية أن تتعامل معها. كما تناقش الورقة الآثار المحتملة لتنظيم الذكاء الاصطناعي على حقوق الإنسان، وفي الخاتمة تحاول الورقة الخروج بمؤشرات لتقييم الأطر التنظيمية لتكنولوجيا وصناعة الذكاء الاصطناعي.

هل تنظيم الذكاء الاصطناعي ضرورة؟

دواعي التنظيم

ثمة طيف واسع من الحجج الداعمة لضرورة وضع أطر تنظيمية لتطوير تكنولوجيا وصناعة الذكاء الاصطناعي. كما أن الداعين إلى وضع هذه الأطر ينتمون إلى جميع الأطراف ذات المصلحة، بما في ذلك قادة صناعة الذكاء الاصطناعي أنفسهم، إضافة إلى أعضاء المجالس التشريعية وممثلي الحكومات والسياسيين والأكاديميين المتخصصين وممثلي المجتمع المدني. يناقش هؤلاء الحاجة إلى أطر تنظيمية لتطوير الذكاء الاصطناعي من مقاربات ووجهات نظر مختلفة، ولكن ثمة عدة دواعي رئيسية يتكرر التأكيد عليها وهي ما تناقشه هذه الورقة في النقاط التالية:

  • الأخطار والتهديدات: بقدر أهمية تكنولوجيا الذكاء الاصطناعي، وبقدر اتساع وعمق التأثيرات الحالية والمستقبلية لها على حياة الجنس البشري، فإن أية أخطار أو تهديدات محتملة لتطوير هذه التكنولوجيا هي بالضرورة بالغة الضخامة. تجاهل مثل هذه التهديدات هو أمر لا يمكن القبول به، ووضع أطر تنظيمية ملزمة هو السبيل الوحيد لأن يكون ثمة ضمانات لمواجهة تهديدات بهذه الخطورة والحجم.
  • الفرص واﻹمكانيات: ثمة آثار إيجابية يمكن توقعها لكل من الجدالات الدائرة حول تنظيم تكنولوجيا وصناعة الذكاء الاصطناعي، وللمساعي والجهود والمبادرات الفعلية لوضع أطر تنظيمية لهما. هذه الآثار الإيجابية تفتح الأبواب أمام عدة فرص وإمكانيات، منها رفع مستوى الوعي بتكنولوجيا الذكاء الاصطناعي لدى غير المتخصصين من صناع القرار والسياسيين وكذلك لدى الجمهور العامل. كما أن ذلك يساهم في توجيه مجال أخلاقيات البحث والتطوير نحو دواعي القلق الأكثر أهمية، وفي نفس الوقت دفع أهمية هذا المجال ودعم نموه داخل الصناعة. وأخيرًا، تُحفز مناقشات تنظيم الذكاء الاصطناعي مبادرات التنظيم-الذاتي، حيث يسعى ممثلو الصناعة إلى استباق وضع أطر تنظيمية لها من خارجها فيطرحون مبادرات جادة ويقدمون ضمانات كافية لتنفيذها.

محاذير التنظيم

في الوقت الذي تحفز فيه الأخطار المحتملة ومخاوف إساءة الاستخدام دعوات الكثيرين إلى ضرورة وسرعة وضع أطر تنظيمية لتكنولوجيا الذكاء الاصطناعي فثمة في المقابل حجج كثيرة ضد ذلك. وتعرض الورقة فيما يلي بعض أهم هذه الحجج.

  • إعاقة الابتكار والتقدم: يمكن للتنظيم الزائد عن الحاجة أن يخلق أعباءً إضافية غير ضرورية ويفرض تأجيل عمل الصناعة والباحثين، معيقًا بذلك الابتكار في مجال الذكاء الاصطناعي مما يؤدي إلى تباطؤ تطوير التطبيقات النافعة له. كما أن الوتيرة المتسارعة لتطور الذكاء الاصطناعي تجعل من الصعب وضع أطر تنظيمية قابلة للتطويع ومقاومة لعامل التقادم مع الزمن. ويمكن للأطر التنظيمية الجامدة أن تتقادم ويتجاوزها تطور التكنولوجيا بسرعة، مما يعيق التقدم الذي يحتاجه التعامل مع مشكلات واقعية قائمة بالفعل.
  • صعوبة وضع وتنفيذ أطر تنظيمية فعالة: تعقيد نظم الذكاء الاصطناعي والسياقات المتنوعة التي تستخدم فيها يجعل صياغة أطر تنظيمية واضحة وقابلة للتنفيذ بشكل يشمل كل الحالات الممكن توقعها مهمة صعبة ومرشحة للاخفاق. ويمكن لذلك أن يؤدي إلى إنتاج أطر تنظيمية مضطربة ومعيبة وتفتقد إلى الاتساق، وقد يكون من الصعب إنفاذها عمليًا. إضافة إلى ذلك، فمهمة تحديد المستوى الصحيح للتدخل في عمليات البحث والتطوير والاستخدام لنظم الذكاء الاصطناعي، مع ضمان الوصول إلى توازن بين منع الضرر من جانب وبين عدم خنق إمكانيات الابتكار والتطور من جانب آخر، تكاد تكون مستحيلة. التنظيم المبالغ فيه يمكن أن يخنق التطور والابتكار، في حين أن التنظيم المتساهل إلى درجة الإهمال يمكن أن يترك ثغرات في التعامل مع الأخطار المحتملة.
  • مخاوف تجاوز الحكومات وخنق التنافسية: يمكن ألا يكون لدى الحكومات الخبرة الكافية أو المرونة مما يسمح لها بوضع أطر تنظيمية لمجال متسارع التطور مثل تكنولوجيا الذكاء الاصطناعي. قد يؤدي هذا إلى أطر تنظيمية غير كفؤ تعيق التنافسية والابتكار. على جانب آخر، يمكن للأطر التنظيمية شديدة التعقيد أن تخلق تمييزًا ضد الكيانات الأصغر حجمًا والناشئة لصالح الكيانات الكبيرة والمستقرة التي يمكنها تحمل تكاليف التوافق مع الأطر التنظيمية المعقدة، وبالتالي يمكنها أن تلتزم بها بشكل أفضل.
  • وجود سبل بديلة: المدافعون عن التنظيم-الذاتي يقولون أن المبادرات التي تقودها الصناعة والتوجيهات الأخلاقية يمكن أن تتعامل بكفاءة مع الأخطار المحتملة دون الحاجة إلى تدخل الحكومات. كذلك فإن الاستثمار في التعليم وحملات رفع مستوى الوعي يمكن أن تساعد الأفراد والمنظمات على فهم الأخطار المحتملة ذات الصلة بالذكاء الاصطناعي، ومن ثم تساعدهم على تخفيف أضرارها.

عوائد التنظيم

إلى جانب كل من دواعي ومحاذير تنظيم تكنولوجيا وصناعة الذكاء الاصطناعي، فإن أحد الجوانب التي ينبغي الاهتمام بها هو ما يمكن توقعه من عوائد إيجابية لعملية التنظيم هذه. تناقش الورقة عوائد التنظيم في النقاط التالية:

  • المسؤولية والمساءلة والمحاسبة: يمكن للأطر التنظيمية لتكنولوجيا وصناعة الذكاء الاصطناعي أن تحدد بشكل واضح مسؤوليات الأطراف المختلفة المنخرطة في عمليات تطوير هذه التكنولوجيا. كما يمكنها أن ترتب على أساس هذه المسؤوليات مستويات وآليات للمساءلة والمحاسبة حال أخل أي طرف بمسؤولياته.
  • ضمانات الشفافية: أي شكل من أشكال الأطر التنظيمية الملزمة سيجعل من الضروري فرض قدر مناسب من الشفافية على عمليات تطوير تكنولوجيا الذكاء الاصطناعي. هذه الشفافية يمكنها أن تضع حدًا لعديد من الثغرات التي تسمح بانتهاكات مختلفة. في مقدمة هذه الانتهاكات يأتي انتهاك الحق في الخصوصية المتصل باستخدام البيانات الشخصية في عمليات تدريب نماذج الذكاء الاصطناعي.
  • ضمانات حقوق أصحاب المصلحة المتعددين: يمكن للأطر التنظيمية أن تحدد بوضوح الحقوق العادلة للأطراف المختلفة التي ترتبط مصالحها بتطور تكنولوجيا الذكاء الاصطناعي. كما يمكنها أن تتوصل إلى توازن مقبول بين هذه المصالح، بدلًا من أن يترك ذلك لتوازنات القوى القائمة والتي تميل إلى تغليب مصالح الأطراف ذات السلطة والنفوذ الأكبر على حساب غيرها.

ضوابط التنظيم

تطوير أطر تنظيمية لتكنولوجيا وصناعة الذكاء الاصطناعي هي عملية بالغة التعقيد، ولا يمكن توقع أن تكتمل أو أن تصل إلى درجة مرضية من النضج في وقت قريب. لا يمكن كذلك توقع أن تنفرد مقاربة واحدة لوضع وتطبيق الأطر التنظيمية بكامل مشهد هذه العملية.

من المتوقع أن تسهم كل المقاربات التي سبقت مناقشتها بدور في مجمل منظومة ستنمو مع الوقت لتنظيم تكنولوجيا وصناعة الذكاء الاصطناعي. ستتضمن هذه المنظومة تشريعات محلية، وأدوات قانونية دولية، إلى جانب مبادرات للتنظيم الذاتي تطرحها وتنفذها الصناعة ذاتها، وكذلك مبادرات لمواثيق أخلاقية وبروتوكولات للممارسات الفضلى.

 في جميع الحالات، فإن ثمة عدة ضوابط ينبغي أن تؤخذ في الاعتبار عند إعداد أي من الأطر التنظيمية. تضمن هذه الاعتبارات تعظيم العائد المرغوب فيه وتحجيم أية عواقب سلبية. فيما يلي تناقش الورقة بعض أهم هذه الضوابط.

  • المرونة: ينبغي أن تتصف الأطر التنظيمية لمجال صناعة الذكاء الاصطناعي بالمرونة الكافية لضمان كفاءة تعاملها مع التهديدات، وفي نفس الوقت ضمان ألا يكون لها آثار سلبية على تطور المجال نفسه. يمكن تحقيق هذه المرونة من خلال إيجاد آليات لتطبيق القواعد التنظيمية بشكل متناسب مع الظروف والحالات المتغيرة التي تتعامل معها.
  • حدود التدخل: نظرًا لطبيعة مجال صناعة الذكاء الاصطناعي، ينبغى أن يتمتع أي إطار تنظيمي له بحساسية خاصة توازن بين احتياجات الفعالية في مقابل محاذير عرقلة التطور. من ثم، فإن مثل ذلك الإطار ينبغي أن يرسم حدود تدخله في كل جانب من جوانب عملية تطوير تكنولوجيا الذكاء الاصطناعي بشكل دقيق وواضح أيضًا. كما ينبغي ترتيب مستويات التدخل التنظيمي بحيث تراعي طبيعة كل جانب على حدة. يضمن ذلك أن يكون مستوى التدخل دائمًا كافيًا للوفاء بالحاجة دون تقصير، ودون أن يزيد لدرجة تضر باستمرارية التطور.
  • المراجعة الدورية والتحديث المستمر: تكنولوجيا الذكاء الاصطناعي هي مجال يتطور بسرعة عالية. يعني ذلك أن ثمة دائمًا إمكانية أن تظهر تهديدات جديدة لم توضع في الحسبان سابقًا، أو يتضح أن أساليب وآليات بعينها لم تعد مجدية بالقدر الكافي. بناء على ذلك، فإن أي إطار تنظيمي للذكاء الاصطناعي لابد أن يتضمن آليات لكل من المراجعة الدورية وإمكانية الاستجابة العاجلة لأي جديد لا يحتمل إرجاء التعامل معه. مثل تلك الآليات قد تتضمن إنشاء مؤسسات متابعة دائمة أو ترتيب عمليات مراجعة جزئية أو شاملة بشكل دوري.

من ينبغي أن ينظم الذكاء الاصطناعي؟

يمثل تحديد من ينبغي عليه أن يتولى مهمة وضع الأطر التنظيمية الملزمة أو التوجيهية لمجال الذكاء الاصطناعي إشكالية معقدة. ثمة العديد من الأطراف التي تتعلق مصالحها بتطوير تكنولوجيا الذكاء الاصطناعي. جميع هذه الأطراف تجمع بين توقع عوائد إيجابية لتطوير هذه التكنولوجيا واستخداماتها المختلفة، وبين مخاوف متعلقة بتطورها أو استخدامها بشكل يهدد مصالحهم.

في حين أن ثمة مصالح مشتركة بين هذه الأطراف إلا أن ثمة مساحات واسعة أيضًا لتعارض المصالح التي تسمح بعدم توافر القدر الكافي من الثقة بينها. نتيجة لذلك، ثمة مظاهر متناقضة من التنافس بين أطراف عدة في سبيل السبق إلى وضع أطر تنظيمية تحقق مصالحها. هذا التسابق يحفزه أن مجال الذكاء الاصطناعي لا يزال حتى الآن خال من الأطر التنظيمية، مع استثناء وحيد هو قانون الاتحاد الأوروبي المختص بتنظيم الذكاء الاصطناعي. يسمح هذا لأي أطر تنظيمية يضعها أي طرف ذو قدر كاف من التأثير بأن ترسم حدودًا وتخط مسارات يصعب على الأطراف الأخرى أن تناقضها بشكل صريح عندما تقوم بدورها بطرح أطرها التنظيمية.

ما سبق يعني أن كل من الأطراف صاحبة المصلحة يمثل مقاربة مختلفة لوضع الأطر التنظيمية لمجال الذكاء الاصطناعي. بسبب تعدد هذه الأطراف، وكذلك بسبب عدة عوامل تتعلق بطبيعة الذكاء الاصطناعي، لا يمكن توقع أن يتمكن أي طرف على حدة من وضع أطر تنظيمية تغطي كافة الجوانب المطلوبة وبالشكل الذي يضمن توافقًا كافيًا عليها. ما يمكن توقعه في المقابل هو أن يكون هناك عديد من الأطر التنظيمية على مستويات مختلفة. لذلك، ما تستعرضه الورقة تاليًا من مقاربات الأطراف المختلفة ليس بالضبط خيارات متعددة سيكون لأحدها الغلبة، ولكن كلًا منها سيكون له تأثير في مشهد تنظيم الذكاء الاصطناعي في السنوات القادمة.

التشريعات المحلية

المزايا

  • الشرعية والقدرة على الإنفاذ: تتمتع الدول بالسلطة الشرعية المعترف بها، سواء داخلها أو من قبل الدول الأخرى، لإصدار وإنفاذ القوانين داخل حدودها على مواطنيها والمقيمين بها وكذلك على الأشخاص القانونية، مثل الشركات والمنظمات وغيرها. من ثم، فإن أية أطر تنظيمية تضعها إحدى الدول أو كيان مثل الاتحاد الأوروبي لتطوير تكنولوجيا وصناعة الذكاء الاصطناعي داخل أراضيها تتمتع بالشرعية وكذلك بضمانات إنفاذها، وهو أمر لا يتوافر بنفس القدر لأي مقاربة أخرى.
  • إمكانية التنسيق والتناغم: يمكن لحكومات الدول المختلفة أن تتعاون فيما بينها لتضع معايير دولية للتوفيق بين التشريعات التي تصدرها كل منها. يسمح ذلك باتساق هذه التشريعات وتجنب التعارض بين متطلبات تطوير ونشر واستخدام الذكاء الاصطناعي بين دولة وأخرى. كما أنه يساهم في تجنب غياب العدالة وتكافؤ الفرص بين كل من مطوري التكنولوجيا ومستخدميها في البلدان المختلفة.

العيوب

  • البطء والبيروقراطية: عمليات إعداد وتمرير وإصدار التشريعات وكذلك الإجراءات المختلفة لتطبيقها تتصف عادة بالبطء. بالنسبة لمجال سريع التطور مثل الذكاء الاصطناعي، فإن تعليق العمل في بعض جوانبه في انتظار صدور بعض التشريعات تحسبًا لأي أثر قد يترتب عليها، وكذلك حاجة بعض عمليات التطوير إلى المرور بإجراءات بيروقراطية قد تفرضها القوانين، قد يؤدي في النهاية إلى عرقلة الإبداع والتطور في مجال الذكاء الاصطناعي.
  • الافتقار إلى الخبرة الفنية: كثير من الحكومات حول العالم قد تفتقر إلى المعرفة المتخصصة وكذلك الموراد سواء المادية أو البشرية المطلوبة لكل من وضع وتنفيذ القوانين المتعلقة بمجال بالغ التخصص والتعقيد مثل الذكاء الاصطناعي. يمكن أن يولد ذلك العديد من المشاكل، منها إمكانية وجود ثغرات في التشريعات، وعدم تغطية جوانب هامة بالشكل الصحيح أو الكافي، وكذلك إمكانية تقييد أنشطة غير ضارة أو الإهمال في وضع ضوابط لأخرى أكثر ضررًا.

المنظمات والهيئات الدولية

المزايا

  • اتساع التغطية والتوافق: على عكس محدودية نطاق تطبيق التشريعات المحلية، تتميز القواعد والمعايير التي تضعها الهيئات الدولية، مثل الأمم المتحدة أو المنظمات الدولية المؤثرة مثل منظمة التعاون الدولي والتنمية، بإمكانية التطبيق عالميًا. تزداد إمكانية تحقق هذا في حالة أن وضعت هذه القواعد والمعايير في صورة اتفاقات دولية ملزمة، ومن ثم يكون لها قوة القانون في كل دولة طرف فيها. يسمح ذلك بالاتساق والتوافق بين القواعد الحاكمة لتطوير واستخدام الذكاء الاصطناعي عبر دول العالم أو عدد كبير منها.
  • الخبرة والموارد: تجميع الخبرات الفنية وتوزيع عبء توفير الموارد عبر عدد من الدول يسمح بأن تعتمد عمليات إعداد وتنفيذ الأطر التنظيمية الدولية على قدر أكبر مما يمكن أن يتوفر لأي دولة على حدة من هذه الخبرات والموارد. يساهم ذلك في أن تكون هذه الأطر أكثر شموًلا وأكثر فعالية.

العيوب

  • محدودية القدرة على التنفيذ: في حال لم تكن الأطر التنظيمية ملزمة للدول المختلفة بحيث يكون لها قوة القانون داخلها فهي بالضرورة ستكون أقل قابلية لإنفاذها بشكل كاف. في هذا الحالة، سيعتمد تنفيذ هذه الأطر على مدى استعداد حكومات هذه الدول للعمل على وضعها في حيز التنفيذ.
  • بطء وتعقيد عمليات اتخاذ القرار: الوصول إلى توافق بين الدول ذات المصالح المختلفة، والمتعارضة في أحيان كثيرة، يتطلب المرور بعملية تفاوض معقدة وعادة ما تستغرق وقتا طويلًا. كما أن الأطر التنظيمية الدولية تفتقد إلى المرونة والقدرة على مواكبة القضايا سريعة التطور مثل الذكاء الاصطناعي. بالإضافة إلى ذلك، الحاجة إلى التوصل إلى الحد الأدنى الذي يمكن لجميع الدول التوافق عليه قد يؤدي إلى صياغات مطاطة وغير محددة بالدقة المطلوبة.

التنظيم الذاتي

المزايا

  • المرونة وسرعة الاستجابة للتغيير: يمكن دائمًا لصناعة الذكاء الاصطناعي أن توفق الأطر التنظيمية التي تضعها بنفسها بسرعة أكبر بحيث تلاحق التطورات التكنولوجية.
  • المعرفة المتخصصة: الأطراف المنخرطة في صناعة الذكاء الاصطناعي تمتلك المعرفة الفنية المتخصصة الأكثر دقة، مما يجعلها أكثر قدرة على فهم التفاصيل المعقدة للتكنولوجيات التي تعمل على تطويرها وبالتالي وضع أطرًا تنظيمية أكثر تفصيلًا وملاءمة.
  • خفض الأعباء التنظيمية: يمكن لمحدودية تدخل الحكومات أن يؤدي إلى خفض التكاليف والسماح للابتكار والتطور بأن يكون أسرع وأكثر مرونة.

العيوب

  • الافتقار إلى إمكانية التنفيذ والمحاسبة: يعتمد التنظيم الذاتي على الالتزام الطوعي، وهو ما قد لا يكون كافيًا لمنع الممارسات الضارة التي قد يقدم عليها أطراف بالصناعة سعيًا لتحقيق مصالحهم.
  • إمكانية تعارض المصالح: يمكن أن تعطي الشركات الأولوية لمصالحها وتحقيق الأرباح على حساب سلامة المستخدمين أو الاعتبارات الأخلاقية.
  • محدودية المجال والشفافية: جهود التنظيم الذاتية قد لا تتعامل مع جميع المخاطر المحتملة ويمكن أن تفتقد إلى الشفافية في عمليات إعدادها أو تنفيذها.

المبادرات متعددة الأطراف ذات المصلحة

المزايا

  • تنوع وجهات النظر والخبرات: اجتماع الأطراف المختلفة ذات المصلحة، بما فيها حكومات الدول وممثلي الصناعة والأكاديميين والمجتمع المدني، يمكن أن يساهم في التوصل إلى أطر تنظيمية أكثر شمولية وتغطية للجوانب المختلفة، وأكثر توازنًا وتوفيقًا بين المصالح المختلفة.
  • الشرعية والثقة: التوافق بين الأطراف ذات المصلحة على أطر تنظيمية للذكاء الصناعي يجعلها أكثر قبولًا لدى من تخاطبهم، كما يمكن أن تزيد من ثقة الجمهور في إمكان تنفيذها.
  • المرونة: الجهود التعاونية لأطراف عدة يمكنها توفيق الأطر التنظيمية مع التطور المستمر لتكنولوجيا الذكاء الاصطناعي، كما يمكنها أن تجعل هذه الأطر أكثر استجابة للمخاوف المجتمعية.

العيوب

  • تعقيد عمليات اتخاذ القرار: التنسيق فيما بين أطراف مختلفة ولكل منها طبيعة بالغة الاختلاف عن الآخر يمكن أن يكون عملية بالغة التعقيد وتستنزف وقتًا وجهدًا كبيرين.
  • الحاجة إلى موازنة المصالح المتضاربة: الوصول إلى توافق قد يكون بالغ الصعوبة عندما تكون للأطراف المختلفة مصالح متناقضة فيما بينها، وربما لا يكون الوصول إلى حلول متوازنة ممكنًا.
  • محدودية إمكانية التنفيذ: المبادرات متعددة الأطراف ذات المصلحة قد تعتمد على جهات خارجها لإنفاذ الأطر التنظيمية التي تتوصل إليها. قد يؤدي ذلك إلى ظهور كثير من العوائق في سبيل تنفيذ هذه الأطر بشكل متسق وفعال، أو حتى على الإطلاق.

إشكالية تداخل مراحل تطوير واستخدام الذكاء الاصطناعي

تداخل مراحل تطوير واستخدام الذكاء الاصطناعي لا يعني فقط السرعة التي قد تتحول بها فكرة نظرية إلى منتج نهائي يطرح للاستخدام العام. التداخل في الذكاء الاصطناعي هو تداخل فعلي يتمثل في أن الجهات ذاتها تقوم بمراحل التطوير في دورات متوازية إلى حد لا يمكن معه في معظم الأحيان الفصل بين مرحلة وأخرى.

في معظم حالات طرح منتجات رئيسية، مثل سلسلة نماذج اللغة الضخمة التي طورتها شركة أوبن-إيه-آي، تُنشَر أوراق بحثية حول هذه المنتجات بالتوازي مع طرحها الفعلي للفئات المستهدفة من المستخدمين. معظم هذه الأوراق كانت تجمع بين تقديم الأساس النظري وبين شرح لعمليات التطوير، ونتائج التشغيل التجريبي للمنتج نفسه. ما يعنيه ذلك أن مجموعة الأشخاص الذين عملوا على بلورة فرضيات نظرية بحثية، هم أنفسهم من طوروا تطبيقًا لهذه الفرضيات في صورة منتج، ثم قاموا باختباره عمليًا وأشرفوا على عملية نشره وإتاحته للجمهور المستهدف.

عدم وضوح، أو ربما عدم وجود، حدود فاصلة بين أي مرحلة والأخرى في تطوير منتجات الذكاء الاصطناعي تجعل مهمة من يحاولوا صياغة أطرًا تنظيمية لهذه التكنولوجيا بالغة الصعوبة. ينبغي وضع إشكالية تداخل المراحل المختلفة لعملية تطوير منتجات الذكاء الاصطناعي في الاعتبار عند مناقشة المقاربات المختلفة المناسبة للتدخل التنظيمي في كل مرحلة.

مراحل البحث

التحديات الأساسية لمحاولة تنظيم مجال البحث في الذكاء الاصطناعي هي محاولة إيجاد توازن بين الطبيعة المنفتحة المطلوبة للعمل البحثي وبين إساءة الاستغلال المحتملة لهذا الانفتاح، وكذلك التعامل مع المخاوف الأخلاقية المتعلقة بالبيانات والخوارزميات. في سبيل التعامل مع هذه التحديات ينبغي لعمليات صياغة أطر تنظيمية لهذه المرحلة أن تأخذ في اعتبارها النقاط التالية:

  • تقييم المخاطر: ينبغي تحديد نطاقات البحث الأعلى من حيث المخاطر المحتملة، مثل الأسلحة المتمتعة باستقلالية ذاتية، ومن ثم وضع آليات لإشراف أكثر صرامة عليها. كما ينبغي العمل على تطوير أطر تقييم للمخاطر Risk Assessment Frameworks تستخدمها كل من الجهات البحثية والجهات المشرفة على عملها.
  • التوجيهات الأخلاقية: لابد من تطوير ودعم مجموعة من المبادئ الأخلاقية للبحث في مجال الذكاء الاصطناعي تستهدف الانحياز، وخصوصية البيانات، والسلوك المسؤول.
  • أطر حوكمة البيانات Data Governance Frameworks: ينبغي إقامة أطر عمل للوصول إلى البيانات وجمعها واستخدامها في البحث بشكل مسؤول مما يضمن الشفافية والقابلية للمحاسبة.

مراحل التطوير واﻹنتاج

تحديات هذه المرحلة تتعلق بالحاجة إلى تحجيم الانحياز، وضمان السلامة، وإنشاء معايير قياسية للتطوير. تستلزم مواجهة هذه المتطلبات أخذ النقاط التالية في الاعتبار:

  • الإلزام باختبار مدى الانحياز والعمل على تحجيمه: ينبغي للأطر التنظيمية أن تلزم الجهات العاملة على تطوير أنظمة الذكاء الاصطناعي بتقييم أية انحيازات محتملة في البيانات والخوارزميات التي تستخدمها والتعامل معها.
  • معايير تقييم السلامة: ينبغي تطوير مناهج اختبار قياسية لضمان سلامة وموثوقية نظم الذكاء الاصطناعي قبل نشرها.
  • سياسات الترخيص: يمكن إنشاء برامج للترخيص لمطوري تكنولوجيا الذكاء الاصطناعي بحيث يتعين على من يحصل عليها تحقيق مستويات محددة من السلامة والمعايير الأخلاقية. لكن ينبغي مراعاة أن تكون شروط الترخيص وإجراءاته غير معقدة بحيث لا تمثل عبئًا على الكيانات الصغيرة والناشئة بصفة خاصة. كما يمكن أن تتضمن سياسات الترخيص إعفاءات ترتبط بحجم الكيان أو مجالات نشاطه.

مراحل التسويق والنشر

تتعلق تحديات هذه المرحلة بكل من شفافية عمليات اتخاذ القرار، والقابلية للمحاسبة على العواقب والنتائج، ودعم الاستخدام المسؤول. وتعتمد إمكانية التعامل مع هذه التحديات على الاعتبارات التالية:

  • القابلية للإيضاح Explainability: ينبغي تشجيع تطوير نماذج ذكاء اصطناعي تتمتع بالشفافية والقابلية للإيضاح مما يسمح بفهم عمليات اتخاذ القرار الخاصة بها.
  • تقييم أثر الخوارزميات: ينبغي إلزام الجهات القائمة على تسويق ونشر نظم الذكاء الاصطناعي بإجراء تقييم للآثار المجتمعية والأخلاقية للخوارزميات المستخدمة في هذه النظم قبل نشرها.
  • الاختبارات تحت السيطرة: ينبغي العمل على وجود اختبارات نشر محدود تحت السيطرة لنظم الذكاء الاصطناعي. يتم خلال هذه الاختبارات جمع البيانات حول أدائها والتغذية الراجعة من المستخدمين حول الجوانب المختلفة لعملها قبل طرح هذه النظم للاستخدام على نطاق واسع.
  • أطر حوكمة البيانات: على غرار تلك التي تتطلبها مرحلة البحث ولكن تتعلق بالتحكم في استخدام البيانات خلال نشر نظم الذكاء الاصطناعي لضمان ممارسات مسؤولة لحماية خصوصية المستخدمين.

المتابعة والجاهزية للطوارئ

على الأطر التنظيمية لمراحل تطوير وصناعة الذكاء الاصطناعي أن تأخذ بعين الاعتبار إنشاء آليات للمتابعة المستمرة لكل مراحل التطوير. يشمل ذلك وجود ضمانات للجاهزية في حال وقوع أي مشاكل مفاجئة للاستجابة السريعة والتعامل معها بأكبر قدر ممكن من الكفاءة لتجنب تفاقم أي من هذه المشاكل، والسيطرة عليها، وتحجيم الأضرار التي قد تنشأ عنها.

تنظيم الذكاء الاصطناعي وضمانات حقوق اﻹنسان

تطور تكنولوجيا الذكاء الاصطناعي له آثار بالغة الأهمية على الواقع الحالي لحقوق الإنسان ومستقبلها. بعض هذه الآثار إيجابي، ولكن البعض الآخر قد يكون سلبيًا أو يمثل تهديدات متراوحة الخطورة لعدد من الحقوق الأساسية. يأتي في مقدمة هذه الحقوق الحق في الخصوصية والحق في عدم التعرض للتمييز.

على جانب آخر، تتقاطع عمليات تطوير تكنولوجيا الذكاء الاصطناعي وكذلك العمليات الخاصة بصناعته مع عدد من الحقوق. العديد من هذه العمليات تنطوي في حد ذاتها على ممارسة حقوق، منها الحق في الحريات الأكاديمية والحق في حرية الوصول إلى المعلومات. كما أن الذكاء الاصطناعي كمجال واعد في مجمله يندرج تطوره وتعظيم إمكانياته تحت مظلة الحق في التنمية.

لذلك، تواجه الأطر التنظيمية لتكنولوجيا وصناعة الذكاء الاصطناعي تحديًا رئيسيًا. يتمثل هذا التحدي في ضمان عدم المساس بحقوق الإنسان على الجانبين. يعني هذا حماية هذه الحقوق في مواجهة التهديدات، وفي نفس الوقت حماية الحقوق المتعلقة بتطوير تكنولوجيا الذكاء الاصطناعي وعدالة الاستفادة بعائدها.

ينبغي أن تمر تكنولوجيا الذكاء الاصطناعي قبل إقرارها بعملية تقييم للآثار المحتملة لها على ممارسة الأفراد المعنيين لحقوقهم وتمتعهم بحرياتهم الأساسية. ينبغي أيضًا أن تتضمن الأطر التنظيمية لها آليات لوضع مؤشرات ومعايير قياسية تُستخدم لرصد وقياس وتقييم الآثار المترتبة على تطبيقها على ممارسة الحقوق الأساسية.

اﻵثار اﻹيجابية

يمكن أن يكون للأطر التنظيمية لتكنولوجيا وصناعة الذكاء الاصطناعي آثار إيجابية في حماية حقوق أساسية، في مقدمتها الحق في الخصوصية. يتحقق ذلك من خلال إلزام الأطر التنظيمية لصناعة الذكاء بالتعامل المسؤول مع البيانات بصفة عامة، والبيانات الشخصية بصفة خاصة، في كل من مراحل تطوير نظم الذكاء الاصطناعي.

يشمل ذلك إعداد حزم البيانات المستخدمة لتدريب نماذج اللغة، وفي مراحل الاستخدام فيما يتعلق بحماية البيانات الشخصية للمستخدمين والبيانات المملوكة لهم بصفة عامة. كذلك يمكن لهذه الأطر التنظيمية أن يكون لها أثر إيجابي في الحد من احتمالات التحيز والتمييز في القرارات المتخذة بالاستعانة بنظم الذكاء الاصطناعي.

اﻵثار السلبية

قد يكون للأطر التنظيمية لتكنولوجيا وصناعة الذكاء الاصطناعي آثار سلبية على ممارسة بعض الحقوق الأساسية إن كانت بالغة التقييد أو تدخلت في جوانب لا داعي للتدخل فيها. يتعلق ذلك بصفة خاصة بأن تمنع أو تقيد هذه الأطر العمل البحثي في جوانب بعينها أو أن تضع آليات متابعة مبالغ فيها له.

على جانب آخر، تعقيد الأطر التنظيمية في حد ذاتها أو تعقيد الآليات أو الإجراءات التي تفرضها أكثر مما ينبغي يحولها إلى عائق للتطور. يمثل ذلك انتهاكًا للحق في التنمية وللحق في حرية العمل بالنسبة للأشخاص والكيانات المعنية.

خاتمة: كيف يمكن تقييم حلول تنظيم الذكاء الاصطناعي؟

في الخاتمة، تحاول الورقة طرح عدة مؤشرات يمكن استخدامها لتقييم الحلول المختلفة لوضع أطر تنظيمية لتكنولوجيا وصناعة الذكاء الاصطناعي. من بين تلك المؤشرات:

  • الشمول: إلى أي حد يغطي الإطار التنظيمي كافة التهديدات الواقعية والأضرار المحتملة لتطوير واستخدام تكنولوجيا الذكاء الاصطناعي؟
  • تناسبية مستوى التدخل: إلى أي حد يتناسب مستوى تدخل الإطار التنظيمي في العمليات المختلفة لتطوير واستخدام الذكاء الاصطناعي مع تحقيق الغرض منه؟
  • المرونة: هل يسمح الإطار التنظيمي بقدر من المرونة في تطبيقه بشكل يتناسب مع تنوع ظروف وحالات تطوير واستخدام الذكاء الاصطناعي؟
  • ملاحقة التطور: هل يضع الإطار التنظيمي آليات تسمح بملاحقة التغيرات المتوقعة في مشهد تكنولوجيا وصناعة الذكاء الاصطناعي؟
  • الشفافية وإمكانية المحاسبة: هل يضع الإطار التنظيمي ضوابط وآليات تضمن الشفافية لإجراءات تطبيقه وإمكانية المحاسبة في حال إساءة استغلال هذه الإجراءات بأي شكل؟
  • ضمانات حقوق الإنسان: هل يراعي الإطار التنظيمي عدم المساس بأي من حقوق الأفراد والكيانات المعنية؟ وهل يغطي كل التهديدات المحتملة الناشئة عن عمليات تطوير تكنولوجيا الذكاء الاصطناعي لحقوق الإنسان؟
  • مؤشرات الفعالية: هل تتيح الإجراءات التي يفرضها الإطار التنظيمي لتنفيذه إمكانية قياس مدى فعاليتها في تحقيق أهدافها؟