قانون الاتحاد الأوروبي للذكاء الاصطناعي: الأهداف والبنية والأحكام الرئيسية

مقدمة

يوشك قطار قانون الاتحاد الأوروبي للذكاء الاصطناعي على الوصول إلى محطته الأخيرة في مرحلة إقراره وإصداره. رحلة هذا القانون منذ إعداد الدراسات الخاصة به، وطرح المفوضية الأوروبية للمقترح الأول، وحتى اليوم استغرقت أكثر من خمسة أعوام. كما أنه لا ينتظر أن يدخل القانون حيز التنفيذ قبل عام 2025.

طول وتعقيد عملية إعداد القانون والتفاوض حول مواده يمكن أن تدعم شعورًا بالحجم الكبير للإنجاز المتحقق بالوصول إلى لحظة إصدار القانون فعليًا. لكنها على جانب آخر تعزز بعض المخاوف. تتعلق تلك المخاوف بمدى إمكان أن تلاحق عملية تشريعية بهذا البطء والصعوبة مجاًلا يتطور في قفزات سريعة ومتلاحقة ويقتحم في كل يوم مساحة جديدة من الفضاء الاقتصادي والاجتماعي والسياسي، كالذكاء الاصطناعي.

لا يمكن النظر إلى قانون للاتحاد الأوروبي ستسري أحكامه داخل جميع الدول الأعضاء على أنه مجرد قانون محلي. فحجم وأهمية السوق الموحد للاتحاد الأوروبي يجعل من القواعد السارية في هذا السوق عاملًا بالغ الأهمية. تتدخل تلك القواعد في توجيه عمليات تطوير وإنتاج تطبيقات تكنولوجيا الذكاء الاصطناعي. كما سيسعى منتجوا تلك التطبيقات في أنحاء العالم إلى الالتزام بالمتطلبات التي تسمح لهم بالحفاظ على حصتهم بهذا السوق، أو زيادة هذه الحصة، أو الدخول إلى السوق إن لم يكن لهم نصيب فيه بعد.

يمتد هذا التأثير على تطور منتجات تكنولوجيا الذكاء الاصطناعي إلى ما يُسوق منها في كل مكان حول العالم، نظرًا لطبيعة هذه المنتجات العابرة للحدود بين الدول. كذلك يدخل الاتحاد الأوروبي في شراكات تجارية مع أغلب دول العالم. لذلك، تحرص هذه الدول على توفيق الأطر القانونية بها مع قوانين الاتحاد. 

الأهمية التي لا يمكن إنكارها لقانون الاتحاد الأوروبي للذكاء الاصطناعي هي الدافع الأول للاهتمام بالتعرف على هذا القانون. ذلك لأنه يمثل إحدى التجارب الأولى لوضع إطار تنظيمي لهذا المجال بالغ الأهمية في عالمنا اليوم وفي المستقبل. ثمة الكثير مما يمكن تعلمه من هذا القانون، سواء بالإيجاب أو السلب.

تتناول هذه الورقة أهداف قانون الاتحاد الأوروبي للذكاء الاصطناعي وبنيته وأهم ملامحه. كما تتطرق إلى الالتزامات العامة والخاصة التي تنطبق على أنظمة الذكاء الاصطناعي. وأخيرًا تلقي الورقة الضوء على أهم أحكام القانون بالإضافة إلى المؤسسات المنشأة بموجبه.

ملحوظة: المصدر الرئيسي الذي تعتمد عليه هذه الورقة هو المسودة النهائية للقانون. لا يُنتظر أن يدخل على تلك المسودة أية تعديلات مؤثرة إذ أن المرحلة التالية هي مرحلة إعداد القانون للنشر. تقتصر تلك المرحلة على إجراء تعديلات فنية لتحسين الصياغة والعمل على وضوح النص. كما أن أرقام المواد المشار إليها في الورقة هي كما وردت في المسودة النهائية، للعودة إلى الأصل عند الحاجة إلى ذلك.


أهداف القانون

أوضحت مؤسسات الاتحاد الأوروبي المنخرطة في عملية إعداد وصياغة مشروع قانون الاتحاد للذكاء الاصطناعي عددًا من الأهداف الرئيسية التي يسعى الاتحاد إلى تحقيقها من خلال تشريع هذا القانون. من أهم المصادر بهذا الخصوص هي الورقة البيضاء التي أصدرتها المفوضية الأوروبية في فبراير عام 2020، وكذلك الملخص التمهيدي الذي نشره البرلمان الأوروبي في يونيو عام 2023 بعد موافقته على مشروع القانون.

تناقش الورقة في النقاط التالية أهم هذه الأهداف مع ملاحظة أنه في أقسام تالية ستعود الورقة إلى الإشارة إليها وإيضاح تفاصيل أكثر حسب السياق.

حماية الحقوق الأساسية وضمانات السلامة

يسعى القانون إلى ضمان التزام منتجات تكنولوجيا الذكاء الاصطناعي بمبادئ أساسية منها عدم التمييز، وتحجيم الانحياز، وحماية الحق في الخصوصية، وتجنب عدم الإنصاف. في سبيل تحقيق ذلك يحتوي القانون على إجراءات تتعلق بحوكمة البيانات (data governance)، والشفافية، والحد من الانحياز، ضمن الالتزامات الخاصة بنظم الذكاء الاصطناعي عالية المخاطر. كذلك يتضمن القانون حظرًا لعدد من الاستخدامات لنظم الذكاء الاصطناعي (المادتين 5 و11) لضمان عدم إساءة استخدام هذه الأنظمة لأغراض التمييز أو التلاعب بقرارات المستخدمين.

تنمية الثقة والاستخدام الأخلاقي

يسعى القانون إلى رفع مستوى ثقة الجمهور العام في تكنولوجيا الذكاء الاصطناعي، وإلى دفع التطوير والنشر المسؤول لتطبيقات هذه التكنولوجيا. يتضمن القانون ضمانات عدة وينشئ آليات لكل من الشفافية (المادة 53)، وللإشراف البشري(مادة 14)، وإمكانية المحاسبة من خلال آلية للشكاوى (مادة 27). في المقابل، هناك انتقادات ترى أن ثمة حاجة إلى فرض تقييد أكثر صرامة لجمع واستخدام البيانات. كذلك يوجد تحذيرات بخصوص عدم وضوح تعريف القانون للأنظمة عالية المخاطر.

تشجيع الابتكار ودعم التنافسية

يسعى القانون إلى الموازنة بين الأطر التنظيمية وبين تنمية منظومة بيئية مواتية لتطوير تكنولوجيا الذكاء الاصطناعي في أوروبا. يتبنى القانون مقاربة قائمة على تقييم المخاطر (مادة 4)، وهو يعفي نظم الذكاء الاصطناعي محدودة المخاطر من التقييدات الرئيسية.

يضع القانون أيضًا آليات لإنشاء ما يسمى بصناديق-الاختبار (sandboxes)، وهي بيئات تحت السيطرة يمكن تجربة نظم الذكاء الاصطناعي فيها قبل نشرها. يهدف ذلك إلى دفع الابتكار ودعم الشركات الصغيرة والناشئة التي ترغب في تطوير أنظمة ذكاء اصطناعي في إطار الالتزامات التي يفرضها القانون(مادة 53). في المقابل، ثمة مخاوف من أثر العوائق البيروقراطية وعدم الوضوح في بعض مواد القانون على الكيانات الصغيرة وعلى خنق التطور السريع لتكنولوجيا الذكاء الاصطناعي.

لعب دور قيادي عالمي

يسعى الاتحاد الأوروبي من خلال تشريع قانون الذكاء الاصطناعي إلى أن يكون له السبق في إنشاء القواعد المنظمة لتطوير مسؤول لتكنولوجيا الذكاء الاصطناعي (المذكرة التفسيرية للقانون). وبالتالي، يكون له تأثير في أية معايير قياسية دولية يمكن أن توضع لاحقًا. لذلك، سعت المؤسسات التشريعية للاتحاد إلى أن يكون القانون شاملًا إلى أقصى حد ممكن. 

نجاح هذه المؤسسات في إقرار القانون تمهيدًا لإصداره ليكون أحد أول القوانين التي تنظم مجال الذكاء الاصطناعي على مستوى العالم من شأنه أن يؤمن لأوروبا مزايا عديدة نتيجة لهذه الأسبقية. ولكن تظل فعالية التأثير في تشكيل المعايير العالمية معلقة بمدى نجاح تطبيق وإنفاذ القانون داخل حدود الاتحاد الأوروبي نفسه.


بنية القانون وأهم ملامحه

المقاربة المبنية على تقييم المخاطر

تمثل المقاربة المبنية على تقييم المخاطر (Risk-based approach) الملمح المركزي لقانون الاتحاد الأوروبي للذكاء الاصطناعي. الهدف الرئيسي وراء تبني هذه المقاربة هو محاولة الموازنة بين تحقيق الأهداف المختلفة للقانون التي قد يتناقض بعضها مع الآخر. 

يطمح القانون إلى الموازنة بين الحماية من المخاطر المحتملة لإساءة استخدام نظم الذكاء الاصطناعي وبين تشجيع ودعم الابتكار والتطور السريع لتلك النظم.كذلك يسعى القانون إلى الموازنة بين المصالح المختلفة، وربما المتناقضة، للأطراف المطورة لأنظمة الذكاء الاصطناعي، ومستخدميه، والمجتمع ككل، وكذلك الأمن القومي للدول الأعضاء بالاتحاد. لتحقيق ذلك يعمد القانون إلى تصنيف أنظمة الذكاء الاصطناعي حسب المخاطر المحتملة لها، ويرتب على ذلك تدرجًا في فرض الالتزامات المختلفة لكل مستوى منها.

التصنيف ودرجات الخطورة

تُعرِّف المادة 8 من القانون المخاطر بأنها “احتمال أن يسبب نظام ذكاء اصطناعي ضررًا بسلامة الأفراد أو صحتهم أو الحقوق الأساسية لهم أو بمستوى معيشتهم.” 

وتُعرِّف المادة 5 درجات الخطورة كالتالي:

  • المخاطر غير المقبولة: الأنظمة التي يثبت أنها خطرة بطبيعتها مع عدم وجود إمكانية للحد من خطورتها (مثال: النظم الحكومية لتسجيل نقاط اجتماعية).
  • الخطورة-العالية: أنظمة الذكاء الصناعي التي تُمثِل مخاطر كبيرة رغم إجراءات الحد من هذه المخاطر (مثال: أنظمة التعرف على الوجوه المستخدمة في إنفاذ القانون).
  • الخطورة-المنخفضة: الأنظمة التي تمثل خطرًا محدودًا أو متدنيًا على الأفراد (مثال: استخدام روبوتات المحادثة في خدمة العملاء).
  • مخاطر-الحد-الأدنى: أنظمة الذكاء الاصطناعي ذات الخطور بالغة التدني بحيث يمكن إهمال المخاطر المحتملة لها، والتي لا تتطلب أكثر من التزامات عامة خاصة بالشفافية (مثال: الألعاب وخوارزميات ترشيحات الموسيقى).

المتطلبات المختلفة لكل مستوى من الخطورة

تنص المادة 47 من القانون على أن أنظمة الذكاء الاصطناعي عالية-الخطورة فقط تخضع لالتزامات خاصة تتخطى المتطلبات العامة للشفافية. يرتب القانون في مواده المتطلبات الخاصة للأنظمة عالية-الخطورة وتشمل: متطلبات حوكمة البيانات (مادة 10)، الإشراف البشري (مادة 14)، إدارة المخاطر (مادة 15)، الشفافية (مادة 53)، تقييم الالتزام بالقانون (مادة 44)، المتابعة في مرحلة ما بعد التسويق (مادة 45). كما يسمح القانون (مادة 29) للدول الأعضاء بالاتحاد بأن تختار فرض متطلبات إضافية على المستوى المحلي لأنظمة الذكاء الاصطناعي عالية-الخطورة.

مزايا المقاربة المبنية على تقييم المخاطر

تتميز هذه المقاربة أولًا بالتناسبية، فهي توفق الأطر التنظيمية حسب المخاطر الفعلية التي تتسبب بها أنظمة الذكاء الاصطناعي المختلفة، مع تجنب فرض أعباء غير ضرورية على التطبيقات منخفضة-المخاطر. من شأن ذلك أن يشجع على الابتكار المسؤول بتسهيل تطوير ونشر أنظمة الذكاء الاصطناعي منخفضة-المخاطر. كما يسمح ذلك بتركيز اهتمام أكبر على الأنظمة عالية-المخاطر ومن ثم توجيه الموارد والجهود التنظيمية نحو الجوانب التي يمكن أن يكون بها الاحتمال الأكبر للضرر.

التحديات والاعتبارات الضرورية

المقاربة المبنية على تقييم المخاطر تتطلب وضوحًا للتعريفات لضمان تفسيرات متسقة لما يشكل “مخاطر-عالية” عبر الدول الأعضاء في الاتحاد الأوروبي. يساعد ذلك في تجنب وجود ثغرات في التطبيق قد تؤدي إلى ظروف منافسة غير عادلة. من المهم أيضًا أن يظل القانون قابلًا للتطويع للتعامل مع المخاطر الجديدة والمتطورة التي قد تتسبب فيها أنظمة الذكاء الاصطناعي. وأخيرًا، تتطلب هذه المقاربة الحفاظ على توازن دقيق بين حماية الأفراد وبين دفع ودعم الابتكار. تُعد تلك مهمة بالغة الحساسية وتمثل تحديًا مستمرًا لفعالية القانون.


الالتزامات العامة

يضع القانون عدد من الالتزامات العامة التي تنطبق على جميع أنظمة الذكاء الاصطناعي، بغض النظر عن تصنيفها من حيث درجة الخطورة. تسعى هذه الالتزامات إلى ضمان التطوير والنشر والاستخدام المسؤولين لأنظمة الذكاء الاصطناعي، وتشمل ما يلي:

  • الشفافية (مادة 4a): ينبغي على كل أنظمة الذكاء الاصطناعي أن يتم تطويرها واستخدامها بطريقة تسمح لمستخدميها بفهم الغرض المقصود منها والمخاطر اللاحقة عليها. يشمل ذلك معلومات عن قدرات أنظمة الذكاء الاصطناعي وحدود إمكانياتها والطريقة التي تتخذ بها قراراتها.
  • حماية البيانات (مواد 8 و 9): ينبغي أن تلتزم معالجة البيانات للاستخدام في أنظمة الذكاء الاصطناعي بالمبادئ المستقرة لحماية البيانات، مثل الدقة، التناسب، الإنصاف، والالتزام بالحدود الدنيا الضرورية. يضمن ذلك ممارسات مسؤولة لكل من جمع واستخدام وتخزين البيانات.
  • عدم التمييز (مادة 11): يحظر قانون الذكاء الاصطناعي تطوير، وتسويق، واستخدام أنظمة الذكاء الاصطناعي التي تمارس تمييزًا ضد الأشخاص بناء على الخواص المحمية لهم (مثل المعتقدات الدينية والسياسية والفكرية والعرق والتوجه الجنسي وغيرها). ويهدف ذلك إلى حماية الأفراد من النتائج المتحيزة أو غير العادلة للخوارزميات.
  • السلامة (مادة 17): ينبغي أن تصمم وتطور جميع أنظمة الذكاء الاصطناعي بحيث تضمن سلامة الأشخاص، واعتبارات الاستخدامات المقصودة لها، والأضرار المحتملة. يشمل ذلك إجراءات الحد من المخاطر ومنع الضرر.
  • حظر المخاطر غير المقبولة (مادة 5): يحظر القانون تطوير وتسويق واستخدام أنظمة الذكاء الاصطناعي التي تعتبر خطرة بذاتها ولا يمكن تحجيم مخاطرها إلى حد مقبول.
  • آليات الشكاوى والوصول إلى المعلومات (مواد 26 و 27): للأفراد الحق في الشكوى إلى السلطات حول عدم الالتزام المحتمل بالقانون وأن يطلبوا معلومات حول أنظمة الذكاء الاصطناعي عالية-الخطورة ذات التأثير عليهم.
  • الأمن والسرية (مادة 60): ينبغي لمطوري ومقدمي أنظمة الذكاء الاصطناعي أن يتخذوا الإجراءات المناسبة لضمان أمن وسرية البيانات المستخدمة في هذه الأنظمة.
  • إمكانية التعقب (مادة 64): ينبغي أن تصمم وتطور أنظمة الذكاء الاصطناعي بحيث تسمح بإمكانية تعقب قراراتها وأنشطة معالجة البيانات التي تقوم بها.

الالتزامات الخاصة لأنظمة الذكاء الاصطناعي عالية الخطورة

إلى جانب الالتزامات العامة ينشئ قانون الاتحاد الأوروبي للذكاء الاصطناعي متطلبات والتزامات خاصة لأنظمة الذكاء الاصطناعي المصنفة كعالية-الخطورة. تهدف هذه المتطلبات إلى التعامل مع المخاطر المحتملة للأنظمة عالية-الخطورة وضمان أن يتم تطوير ونشر واستخدام هذه الأنظمة بشكل مسؤول.

 تعرض الورقة فيما يلي أهم هذه المتطلبات. بعض هذه المتطلبات تتعلق بملامح عامة للقانون، مثل حوكمة البيانات والشفافية والإشراف البشري وستناقشها الورقة باستفاضة أكبر في أقسام تالية.

متطلبات حوكمة البيانات

تنص المادة 10 من القانون على أن تكون البيانات المستخدمة لتدريب ومراجعة واختبار أنظمة الذكاء الاصطناعي عالية-الخطورة ذات صلة بالغرض منها، وممثلة للتنوع بقدر كاف، وأن تخلو إلى أقصى حد ممكن من الأخطاء، وأن تكون كاملة. كما ينص القانون على اتخاذ إجراءات للكشف عن الانحياز المحتمل ومنعه والحد منه. ويُعرَّف الانحياز بأنه ذلك الذي من شأنه أن يؤثر على المستخدمين بناء على خصائصهم المميزة (مادة 10-f). 

بالإضافة إلى ذلك، ينص القانون على أن جمع ومعالجة البيانات ينبغي أن يكون محدودًا بما هو ضروري ومتناسبًا مع الغرض المقصود لنظام الذكاء الاصطناعي المعني (مادة 12). كذلك يتطلب القانون الشفافية فيما يخص مصدر البيانات وخاصة فيما يتعلق بالبيانات الشخصية، مع وضع الغرض الأصلي لجمع البيانات (مادة 10-aa).

الإشراف البشري

تنص المادة 14 من القانون على أن تصمم وتطور أنظمة الذكاء الاصطناعي عالية-الخطورة بحيث تُسهل الإشراف البشري الفعال. يشمل ذلك توفير أدوات مناسبة للتواصل بين البشر والآلات بغرض المتابعة والتدخل. كذلك ينص القانون على أن يكون بإمكان المشرفين من البشر فهم قدرات وحدود أنظمة الذكاء الاصطناعي، ومراقبة عملياتها، والتدخل عند الضرورة، وأن يكونوا قابلين للمحاسبة على قراراتهم المتصلة بهذه الأنظمة.

إدارة المخاطر

تلزم المادة 15 من القانون وجود إجراءات للتعرف على المخاطر المحتملة وتقييمها والحد منها على طول دورة حياة أنظمة الذكاء الاصطناعي عالية-الخطورة، بما في ذلك التطوير، والنشر، والتشغيل. كذلك تلزم المادة 51 مقدمو خدمات أنظمة الذكاء الاصطناعي المصنفة كعالية-الخطورة بإبلاغ السلطات المختصة عن الحوادث ومشاكل التشغيل الخطيرة.

الشفافية

تلزم المادة 53 بأن تُقدِّم أنظمة الذكاء الاصطناعي عالية-الخطورة معلومات أكثر تفصيلًا عن منطق عملها، وعمليات اتخاذها للقرارات، والمخاطر المحتملة لها، مع وضع الحدود الفنية والإساءة المحتملة للاستخدام بعين الاعتبار. كذلك يلزم القانون مقدمو خدمات أنظمة الذكاء الاصطناعي عالية-الخطورة بإعداد ونشر تقارير شفافية تعرض الخطوط العريضة لكل من العرض من النظام المعني، والاستخدام المقصود له، والمخاطر المحتملة، وإجراءات الحد منها، وتقييم أدائه.

متطلبات أخرى للأنظمة عالية-الخطورة

تلزم المادة  44 بأن تمر أنظمة الذكاء الاصطناعي عالية-الخطورة بعملية تقييم لالتزامها بمتطلبات القانون تجريها الجهات المختصة للتأكد من وفائها بهذه الالتزامات. كذلك تلزم المادة 45 مقدمي خدمات أنظمة الذكاء الاصطناعي عالية-المخاطر بمراقبة أداء هذه الأنظمة بعد نشرها وأن يبلغوا السلطات بأية حوادث أو مشاكل. وأخيرًا تلزم المادة 49 مطوري أنظمة الذكاء الاصطناعي عالية-الخطورة بإعداد توثيق فني يصف تصميم النظام المعني وتطويره وتشغيله ويكون ذلك التوثيق محدثًا ومتاحًا لاطلاع السلطات عليه عند الحاجة.


الأحكام الرئيسية للقانون

يضم قانون الاتحاد الأوروبي للذكاء الاصطناعي عددًا كبيرًا من الأحكام التي تغطي جوانب متنوعة لعمليات تطوير ونشر واستخدام الذكاء الاصطناعي. يمكن تصنيف هذه الأحكام حسب مجموعة من الموضوعات البارزة التي يركز عليها القانون وهي: متطلبات الشفافية، والإشراف البشري، وحوكمة البيانات، وآليات التعويض عن الضرر، وصناديق الاختبار تحت السيطرة.

متطلبات الشفافية

للشفافية أولوية خاصة فيما يخص وضع أطر تنظيمية لأنظمة الذكاء الاصطناعي. فغياب الشفافية يمثل أحد المشاكل الرئيسية في الأنظمة المتاحة للاستخدام العام في الوقت الحالي.

المثال الأبرز هو تراجع مستوى الشفافية لسلسلة نماذج اللغة التي تطورها شركة أوبن-إيه-آي (OpenAI) والتي يعتمد عليها تطبيق المحادثة تشات-جي-بي-تي. فمنذ طرحت الشركة الجيل الرابع من هذه النماذج (GPT4) امتنعت عن نشر أية معلومات فنية تفصيلية تتعلق بقدرات النموذج وطريقة عمله والمخاطر المحتملة لاستخدامه.

يتزامن ذلك مع تكرر مطالبات الخبراء بضرورة التزام مطوري مثل هذه الأنظمة بمبدأ الشفافية. لذلك، فاهتمام مشرعي القانون بفرض متطلبات للشفافية على أنظمة الذكاء الاصطناعي هو أحد الجوانب الإيجابية الرئيسية لهذا القانون. فيما يلي تستعرض الورقة كيف تفرض أحكام القانون مبدأ الشفافية.

المتطلبات العامة للشفافية

يفرض القانون مجموعة من المتطلبات العامة للشفافية ينبغي لجميع أنظمة الذكاء الاصطناعي الالتزام بها، بغض النظر عن تصنيفها من حيث الخطورة. يدرج القانون (مادة 4-a) الشفافية بين القواعد العامة له. فينص على أن أنظمة الذكاء الاصطناعي ينبغي أن تطور وتستخدم بطريقة تسمح لمستخدميها بفهم الغرض المقصود بها والمخاطر المحتملة لها. 

كما يتطلب القانون (مادة 33) من مطوري أنظمة الذكاء الاصطناعي أن يوفروا معلومات يسهل الوصول إليها وفهمها حول أغراض هذه النظم والاستخدام المقصود لها ومخاطرها المحتملة على المستخدمين. كذلك يفرض القانون (مادة 54) توفير معلومات واضحة ومفهومة حول استخدام أنظمة الذكاء الاصطناعي عند تفاعل الأفراد مع تطبيقات تحتوي هذه الأنظمة، موضحة مدى تدخله في عمل هذه التطبيقات والغرض من استخدامه فيها.

المتطلبات الخاصة للشفافية في الأنظمة عالية-الخطورة

يفرض القانون متطلبات شفافية إضافية فيما يتعلق بأنظمة الذكاء الاصطناعي المصنفة كعالية-الخطورة. تتطلب المادة 13 أن تصمم هذه الأنظمة وتطور بحيث تضمن عملها “بطريقة شفافة بقدر كاف” بحيث يمكن لكل من مقدمي خدماتها ومستخدميها أن يفهموا وظائفها.

كذلك يلزم القانون (مادة 53) بأن توفر أنظمة الذكاء الاصطناعي عالية-الخطورة مزيد من المعلومات المفصلة حول منطق عملية اتخاذها للقرارات. وتلزم المادة 55 بتقديم تقارير شفافية لأنظمة الذكاء الاصطناعي عالية-الخطورة؛ توضح الغرض من النظام، والاستخدام المقصود له، ومخاطره، وإجراءات الحد منها، ومعايير تقييم أدائه.

جوانب أخرى تتعلق بمبدأ الشفافية

يحظر القانون (مادة 10) التلاعب المتعمد باستخدام أنظمة الذكاء الاصطناعي لاستغلال مواطن ضعف المستخدم أو خداعه. كذلك يحد القانون (مادة 52) من استخدام محتوى “الزيف العميق” Deepfake لخلق أو استغلال محتوى مضلل دون إجراءات حماية ودون شفافية. وأخيرًا ينص القانون (مادة 83) على ضرورة تسهيل الوصول إلى تقارير ومعلومات الشفافية المقدمة التزامًا بالقانون، وأن تكون مفهومة وموفقة حسب الجمهور المستهدف لها.

الإشراف البشري

تسارع مؤخرًا تطوير واستخدام أنظمة الذكاء الاصطناعي المعتمدة على تكنولوجيات التعلم العميق (Deep Learning). تستخدم تلك التكنولوجيات بنى برمجية مثل الشبكات العصبية الاصطناعية (Artificial Neural Networks). تلك الشبكات هي أنظمة تقوم بتعديل الخوارزميات المستخدمة فيها بنفسها بناء على تقييم تجريه بنفسها أيضًا لمدى اقترابها من تحقيق الأهداف المحددة لها. 

يعني ذلك أن بمجرد بدء عمل هذه الأنظمة يتطور مسار هذا العمل بطريقة لا يحددها مبرمجوها سلفًا، وقد لا يكون بإمكانهم التنبؤ بها. في أحيان كثيرة، أظهرت نماذج اللغة الضخمة (Large Language Models) اكتساب قدرات وخصائص غير متوقعة سلفًا وغير تناسبية. أدى ذلك إلى مخاوف تطوير أنظمة الذكاء الاصطناعي لخواص قد تشكل خطورة على مستخدميها أثناء عملها. دفع ذلك عديد من الخبراء إلى المطالبة بضرورة وجود رقابة بشرية فعالة على عمل هذه الأنظمة.

لذلك، يعد اهتمام مشرعي قانون الاتحاد الأوروبي للذكاء الاصطناعي أحد أهم ملامح هذا القانون وأحد نقاط قوته. يركز القانون بقدر كبير على الإشراف البشري على أنظمة الذكاء الاصطناعي عالية-الخطورة بهدف ضمان التدخل البشري في عمليات اتخاذ القرار المهمة وللحد من المخاطر المحتملة. فيما يلي تناقش الورقة أحكام القانون ذات الصلة بالإشراف البشري.

  • مجال التركيز: يلزم القانون (مادة 14) بوجود إشراف بشري على أنظمة الذكاء الاصطناعي عالية-الخطورة لمنع أو لتحجيم المخاطر على صحة وأمان المستخدمين وعلى حقوقهم الأساسية. ولا يتطلب القانون إشرافُا بشريُا على أنظمة الذكاء الاصطناعي التي يصنفها كمتوسطة أو منخفضة-الخطورة.
  • التصميم والتطوير: يلزم القانون (مادة 14-1) بأن تصمم وتطور أنظمة الذكاء الاصطناعي عالية-الخطورة بحيث تسهل إشرافًا بشريًا فعالًا عليها. يتضمن ذلك توفير أدوات وواجهات استخدام للمتابعة والتدخل عند الحاجة.
  • الإجراءات: ينص القانون (مادة 14-3) على أن الإشراف البشري يمكن تحقيقه من خلال إجراءات متعددة. تشمل تلك الإجراءات الخواص المتضمنة في النظام نفسه. يعني ذلك أن يضمن مطورو النظام إمكانيات تدخل بشري قبل نشر النظام مثل وظائف لوقف التشغيل، وسجلات الفحص audit logs. كذلك يمكن لمقدم خدمة نظام الذكاء الاصطناعي أن يحدد إجراءات الإشراف المناسبة التي يمكن أن يقوم بها المستخدمون، مثل تدريب مشرفين، وإعداد بروتوكولات لإدارة المخاطر.
  • مسؤوليات المشرفين على أنظمة الذكاء الاصطناعي: يلزم القانون (مادة 14-4) بأن يكون بإمكان المشرفين على أنظمة الذكاء الاصطناعي أن يفهموا إمكانيات وحدود النظام، وأن يراقبوا عمليات النظام ويتدخلوا عند الحاجة، وأن يصلوا إلى البيانات والمعلومات ذات الصلة حول قرارات النظام، وأن يكونوا قابلين للمحاسبة على قراراتهم المتعلقة بنظام الذكاء الاصطناعي.

إضافة إلى ما سبق، يحظر القانون (مادة 19) تسويق أنظمة الذكاء الاصطناعي عالية-الخطورة أو وضعها في الخدمة إذا لم يكن بالإمكان وجود إشراف بشري عليها. ويلزم القانون (مادة 50) أنظمة الذكاء الاصطناعي عالية-الخطورة بحفظ سجلات للقرارات والإجراءات التي يتخذها النظام والمشرف البشري عليه، لتسهيل تعقب هذه القرارات والإجراءات والمحاسبة عليها.

حوكمة البيانات

أثارت علاقة أنظمة الذكاء الاصطناعي بعمليات جمع ومعالجة وتخزين البيانات، وبصفة خاصة البيانات الشخصية، جدلًا واسع النطاق. لذلك، تعد ضمانات حوكمة البيانات واحدة من المتطلبات الرئيسية التي ينبغي لأي إطار تنظيمي لتكنولوجيا الذكاء الاصطناعي أن يسعى لتغطيتها. يتضمن القانون عديدًا من الأحكام المتعلقة بحوكمة البيانات تتناولها الورقة في القسم التالي.

  • المبادئ العامة لحوكمة البيانات: يضع القانون (مادة 8) مبادئ عامة لمعالجة البيانات تشمل الدقة، والإنصاف، والملاءمة، والتزام الحد الأدنى الضروري. كذلك يتطلب القانون (مادة 9) أن تكون ممارسات حوكمة البيانات تناسبية وملائمة لمستوى مخاطر نظام الذكاء الاصطناعي المعني.
  • محتوى وتمثيل البيانات: يلزم القانون (مادة 10) بأن تكون حزم البيانات المستخدمة لتدريب ومراجعة واختبار أنظمة الذكاء الاصطناعي عالية-الخطورة ذات صلة بغرض استخدامها، وتمثل بقدر كاف التنوع في نطاق موضوعها، وأن تخلو إلى أكبر حد ممكن من الأخطاء، وأن تكون كاملة غير مجتزأة. كذلك يتطلب القانون (مادة 10-f) فحص حزم البيانات لكشف أي انحياز محتمل قد يؤثر سلبًا على المستخدمين بناء على خصائصهم المحمية بالحق في عدم التمييز. وأخيرًا يلزم القانون (مادة 10-fa) بتطبيق إجراءات مناسبة لكشف ومنع والحد من الانحيازات التي يعثر عليها في حزم البيانات.
  • جمع ومعالجة البيانات: يلزم القانون (مادة 10-a) بضمان اختيارات تصميمية مناسبة فيما يتعلق بعمليات جمع البيانات بحيث يوضع في الاعتبار الأطر القانونية والمبادئ الأخلاقية ذات الصلة. يتطلب القانون (مادة 10-aa) الشفافية فيما يخص مصدر البيانات، وخاصة البيانات الشخصية، ووضع الغرض الأصلي لجمع البيانات في الاعتبار. وأخيرًا ينص القانون (مادة 10-c) على ضرورة توثيق عمليات إعداد البيانات، مثل إلحاق علامات تمييزية (labeling)، وتنظيف البيانات، وتجميعها بشكل تصنيفي ومناسب للاستخدام المقصود لها.
  • الالتزام بالحد الأدنى الضروري: يقصر القانون (مادة 12) جمع ومعالجة البيانات على ما هو ضروري وتناسبي للغرض المقصود بأنظمة الذكاء الاصطناعي التي ستستخدمها. كذلك يقرر القانون (مادة 59) أن للأفراد حق في الوصول إلى البيانات المستخدمة في أنظمة الذكاء الاصطناعي عالية-الخطورة التي تؤثر عليهم، إلى جانب المعلومات حول منطق معالجتها واتخاذ القرارات المتعلق بها.

بالإضافة إلى ذلك، تحظر المادة 16 من القانون على أنظمة الذكاء الاصطناعي عالية-الخطورة استخدام البيانات الشخصية لأغراض غير تلك التي جمعت لأجلها، ما عدا إذا كان ثمة أساس قانوني مناسب لذلك. كما يتطلب القانون (مادة 60) من مقدمي خدمات أنظمة الذكاء الاصطناعي أن يطبقوا إجراءات فنية وتنظيمية لضمان أمن واتساق البيانات المستخدمة في أنظمة الذكاء الاصطناعي عالية-الخطورة. كذلك ينشئ القانون (مادة 61) حدودًا للاحتفاظ بالبيانات، فلا ينبغي استبقاء البيانات لوقت أطول من الضروري للغرض المقصود، مع وضع كل من الالتزامات القانونية والمخاطر المحتملة في الاعتبار.

آليات التعويض عن الضرر

لا ينشئ قانون الاتحاد الأوروبي للذكاء الاصطناعي آليات خاصة به للتعويض عن الأضرار التي تتسبب فيها أنظمة الذكاء الاصطناعي للأفراد. مع ذلك، يحتوي القانون على أحكام تمهد الطريق لاستخدام الأطر القانونية القائمة لذلك الغرض، وتشجع تطوير آليات متخصصة في المستقبل. في التالي تعرض الورقة هذه الأحكام.

  • الأطر القانونية القائمة: يوضح القانون (مادة 81) أن قوانين الاتحاد الأوروبي والقوانين المحلية لدوله المتعلقة بالمسؤولية الجنائية، وسلامة المنتجات، وحماية المستهلك تظل سارية وتخضع لها أنظمة الذكاء الاصطناعي. يسمح ذلك للأفراد باستخدام هذه السبل القانونية للسعي إلى التعويض عن الأضرار التي تلحق بهم. ويؤكد القانون (المادة 82) على أهمية ضمان إمكانية الوصول إلى العدالة للأفراد الذين يتأثرون سلبًا بسبب أنظمة الذكاء الاصطناعي عالية-الخطورة. كما يشجع القانون الدول الأعضاء بالاتحاد الأوروبي على تسهيل استجابة قانونية فعالة وعاجلة في لمساعي الأفراد للتعويض عن الأضرار الناجمة عن هذه الآثار السلبية.
  • الحق في المعلومات والشكوى: يقر القانون (مادة 26) بحق الأفراد في إعلامهم حال تعرضهم لأنظمة ذكاء اصطناعي عالية-الخطورة. بالإضافة إلى تمكينهم من فهم التأثيرات المحتملة لهذه الأنظمة عليهم، ومن السعي إلى الحصول على مزيد من المعلومات عن كل من الأنظمة وتأثيراتها. كذلك يقر القانون (المادة 27) بحق الأفراد في التقدم بشكاوى إلى الهيئات ذات سلطة الإشراف في دولهم فيما يتعلق بعدم الالتزام المحتمل بالقانون لأنظمة الذكاء الاصطناعي، والذي من شأنه أن يؤدي إلى إجراءات للتحقيق في تلك الادعاءات ولإنفاذ القانون فيما يخصها.
  • التطورات المستقبلية: يدعو القانون (مادة 80) المفوضية الأوروبية إلى دراسة الحاجة إلى، ومدى إمكانية، إنشاء آليات مختصة وجماعية لدول الاتحاد لتعويض الأفراد المتضررين من أنظمة الذكاء الاصطناعي. يمنح القانون المفوضية مهلة ثلاثة أعوام منذ تاريخ دخول القانون حيز التنفيذ لإجراء هذه الدراسة.

لا يمكن اعتبار هذه الأحكام كافية لتغطية افتقاد القانون إلى آليات تعويض مستقلة ومتخصصة في الأضرار المتعلقة بأنظمة الذكاء الاصطناعي. فالاعتماد على الأطر القانونية القائمة ليس كافيًا. تلك الأطر لا يمكنها التعامل مع تعقيدات المشاكل المتعلقة بأنظمة الذكاء الاصطناعي. 

كما أن أحد أسباب الحاجة إلى قانون مختص بالذكاء الاصطناعي كان عدم فعالية المسارات القانونية القائمة وعدم قدرتها على التعامل مع الدعاوى ذات الصلة. كان يمكن للقانون على الأقل أن يضيف مزيدًا من الإيضاحات والتوجيهات لكيفية تعامل المسارات والأطر القانونية القائمة مع الإشكاليات المتعلقة بهذه المنتجات. 

إرجاء البت في إمكانية إنشاء آليات متخصصة للتعويض عن الأضرار ذات الصلة بعمل أنظمة الذكاء الاصطناعي عالية-الخطورة لثلاثة أعوام يترك ثغرة كبيرة في المنظومة التي يفترض بالقانون أن يؤسس لها؛ خاصة مع اعتبار السرعة الكبيرة التي تتطور بها تكنولوجيا الذكاء الاصطناعي.

بالإضافة إلى ذلك، سيعتمد تطبيق آليات للتعويض عن الأضرار الناتجة عن أنظمة الذكاء الاصطناعي على تفسيرات الدول الأعضاء، كل منها على حدة، وحسب النظم القانونية المعمول بها فيها. يجعل ذلك توحيد أو توفيق هذه الآليات في المستقبل أمرًا أكثر صعوبة مع غياب أية إرشادات من القانون بهذا الشأن. كذلك فإمكانية وصول الأفراد للإنصاف فيما يخص الضرر الواقع عليهم، خاصة العابر للحدود، يمكن أن يمثل تحديًا صعبًا.

صناديق الاختبار تحت السيطرة (Sandboxes)

تعتمد صناديق الاختبار تحت السيطرة على إنشاء بيئات للتشغيل التجريبي لأنظمة الذكاء الاصطناعي بما يسمح بتقييم التزامها بمتطلبات القانون. يتيح ذلك للجهات المطورة لهذه الأنظمة أن تختبرها بشكل عملي قبل نشرها وتسويقها. كذلك فإن توفير هذه البيئات بكلفة منخفضة للكيانات الصغيرة والمتوسطة يحقق هدف تشجيع الابتكار وتطور تكنولوجيا الذكاء الاصطناعي.

كما أنه يسمح بقدر أكبر من التنافس العادل في مواجهة الكيانات الكبرى التي تمتلك وحدها الإمكانيات المطلوبة لإنشاء بيئات اختبار مماثلة خاصة بها. يضع قانون الاتحاد الأوروبي للذكاء الاصطناعي ترتيبات عدة لإنشاء هذه الصناديق تستعرضها الورقة فيما يلي.

  • إنشاء صناديق الاختبار: يلزم القانون (مادة 53-1) الدول الأعضاء بأن تنشئ كل منها صندوق اختبار واحد على الأقل داخل حدودها. يمهل القانون هذه الدول فترة عامين منذ دخول القانون إلى حيز التنفيذ لتنفيذ ذلك الإلزام. كما يسمح القانون (مادة 53-2) لأكثر من دولة بإنشاء صناديق اختبار عابرة للحدود فيما بينها. كذلك يتيح القانون (مادة 53-3) للمفوضية الأوروبية تقديم الدعم الفني والنصح والأدوات لتسهيل إنشاء وتشغيل صناديق الاختبار.
  • الغرض والمشاركة: ينص القانون (مادة 53-4) على أن الغرض من صناديق الاختبار هو دفع وتشجيع الابتكار بالتعامل مع العناصر غير الموثوق في التزامها بمتطلبات القانون التي قد يصادفها مطورو أنظمة الذكاء الاصطناعي. يفرض القانون (مادة 53-5) أن تكون الأولوية في المشاركة في صناديق الاختبار للمشروعات التي تكشف عن جوانب غير موثوق في توافقها مع متطلبات القانون، والمشروعات التي تسهم في اكتساب معرفة تنظيمية مبنية على الدليل الملموس.
  • الإشراف والإرشاد: ينص القانون (مادة 53-1e) على أن تقدم صناديق الاختبار الإشراف والدعم للمشاركين خلال كامل عملية الاختبار، بما في ذلك مراحل التطوير، والاختبار، وما قبل التسويق. ويلزم القانون (مادة 53-1f) السلطات بتقديم التوجيه والإرشاد حول التوقعات التنظيمية وكيفية الالتزام بمتطلبات القانون للمشاركين في صناديق الاختبار. كما يلزم القانون (مادة 53-7) صناديق الاختبار بضمان وجود ترتيبات وإجراءات لحماية وأمن البيانات خلال الاختبار والتجريب.
  • تقديم التقارير والتقييم: يلزم القانون (مادة 53-8) الدول الأعضاء بتقديم تقارير دورية إلى المفوضية الأوروبية حول أنشطة صناديق الاختبار الخاصة بها، ونتائجها، والدروس المستفادة منها. كذلك يلزم القانون (مادة 53-9) المفوضية الأوروبية بإجراء تقييمات بناء على تقارير الدول الأعضاء للتأكد من فعالية صناديق الاختبار واقتراح التحسينات المحتملة لعملها.

المؤسسات المنشأة بموجب القانون

المجلس الأوروبي للذكاء الاصطناعي

ينشئ القانون هيئة باسم المجلس الأوروبي للذكاء الاصطناعي. يفترض بالمجلس أن يلعب دورًا حيويًا في دعم تنفيذ قانون الذكاء الاصطناعي وتوجيه تطوره المستقبلي. في القسم التالي تستعرض الورقة الأحكام الرئيسية المتعلقة بتشكيل واختصاصات ووظائف المجلس في المسودة النهائية للقانون.

التشكيل والمسؤوليات

ينص القانون (مادة 56-1) على أن يتشكل المجلس من ممثلين عن كل دولة من دول الاتحاد، إلى جانب ممثلين للمفوضية الأوروبية. إضافة إلى ذلك، يضم المجلس في عضويته مراقبين من جهات متنوعة من الأطراف ذات المصلحة. يشمل ذلك جهات صناعة الذكاء الاصطناعي، والأكاديميين، والمجتمع المدني. كما يحدد القانون (مادة 56-2) مسؤوليات المجلس التي تتمثل في معاونة المفوضية الأوروبية في مهام متنوعة تشمل:

  • تقديم النصح والخبرة حول تنفيذ قانون الذكاء الاصطناعي (مثل: إيضاح متطلبات القانون، إصدار أدلة توجيهية، التعامل مع الأمور المستجدة).
  • تطوير الممارسات الفضلى والمقترحات التوجيهية للدول الأعضاء لضمان إنفاذ القانون بشكل متسق وفعال.
  • متابعة وتقييم فعالية القانون واقتراح المراجعات عند الضرورة.
  • تسهيل انخراط الأطراف أصحاب المصلحة في الحوار لضمان الحصول على وجهات نظر متنوعة تثري وتوجه عملية اتخاذ القرار ووضع السياسات ذات الصلة.

الوظائف المحددة للمجلس

ينشئ القانون (مادة 56-3) مجموعتين فرعيتين دائمتين داخل المجلس، وهما: 

  • مجموعة مراقبة السوق: وتتكون من هيئات مراقبة السوق بالدول الأعضاء، وتتيح التعاون فيما بينها من خلال تبادل المعلومات وتنسيق إجراءات إنفاذ القانون.
  • مجموعة الهيئات المعنية بتقييم التزام أنظمة الذكاء الاصطناعي بالقانون: وتتشكل من ممثلين لتلك الهيئات من الدول الأعضاء. 

عمل المجلس وضمانات شفافيته

يحدد القانون (مادة 56-4) البنية التنظيمية للمجلس وعملياته بما في ذلك تدوير موقع رئاسة المجلس بين الدول الأعضاء بمعاونة المفوضية الأوروبية. يؤكد القانون (مادة 56-5) على أهمية الموضوعية والحيادية والسرية في أنشطة المجلس. كما يلزم القانون (مادة 56-6) المفوضية بدعوة المجلس إلى عقد اجتماعاته وإعداد أجنداتها بناء على مهام المجلس. وأخيرًا يتطلب القانون (مادة 56-7) من المفوضية أن تقدم دعمًا إداريًا وتحليليًا للمجلس.

هيئات الإشراف على إنفاذ القانون بالدول الأعضاء

يلزم قانون الاتحاد الأوروبي للذكاء الاصطناعي الدول الأعضاء بالاتحاد بأن تنشئ كل منها هيئة مختصة بالإشراف على إنفاذ القانون بها. يضمن ذلك تنفيذًا فعالًا للقانون ومواجهة الحالات المحتملة لعدم الالتزام به. تعرض الورقة فيما يلي الأحكام المتعلقة بإنشاء ومسؤوليات وسلطات هذه الهيئات كما وردت بالمسودة النهائية للقانون.

إنشاء الهيئات ومسؤولياتها

ينص القانون (مادة 57-1) على أن توكل كل دولة عضو هيئة واحدة على الأقل لتحمل مسؤولية الإشراف على تطبيق وإنفاذ قانون الذكاء الاصطناعي. كما ينص القانون (مادة 57-2) على أن بإمكان هذه الهيئة أن توكل جهات إضافية للمعاونة في مهام بعينها لإنفاذ القانون، مثل مراقبة السوق أو التحقيقات الفنية. يحدد القانون (مادة 57-3) مسؤوليات هذه الهيئات، وهي:

  • التحقيق في حالات شبهة عدم الالتزام بالقانون سواء ظهرت من خلال شكاوى أو مؤشرات لوجود مخالفات.
  • إجراءات إنفاذ القانون ومنها إصدار قرارات بإجراءات تأديبية، فرض غرامات، أو توقيع عقوبات أخرى على الجهات غير الملتزمة بالقانون.
  • متابعة سوق أنظمة الذكاء الاصطناعي عالية-الخطورة لضمان التزامها بمتطلبات القانون.
  • التعاون مع هيئات إنفاذ القانون الأخرى من خلال تبادل المعلومات والتعاون في التحقيقات وإجراءات إنفاذ القانون العابرة للحدود بين الدول الأعضاء.

استقلال المجلس وسلطاته

 يلزم القانون (مادة 57-4) بأن تكون هيئات إنفاذ قانون الذكاء الاصطناعي في الدول الأعضاء مستقلة عن الصناعة، وعن بقية الأطراف أصحاب المصلحة. يساعد ذلك في ضمان موضوعية التحقيقات التي تجريها والقرارات التي تتخذها. يمنح القانون (مادة 57-5) هذه الهيئات سلطات التحقيق، بما في ذلك طلب المعلومات، وإجراء عمليات فحص وتفتيش وتحريز الأدلة. كذلك يتيح القانون (مادة 57-6) لهذه الهيئات سلطة فرض عقوبات إدارية، بما في ذلك الغرامات والحظر على تسويق أنظمة ذكاء اصطناعي مخالفة لمتطلبات القانون.

الشفافية والقابلية للمحاسبة

 يلزم القانون (مادة 57-7) الدول الأعضاء بضمان شفافية عمليات إنفاذ القانون، وبإعلام الجمهور وأصحاب المصلحة بالتحقيقات الجارية وبإجراءات إنفاذ القانون. كما ينص القانون (مادة 57-8) على أن تكون الهيئات مسؤولة عن أنشطتها في إنفاذ القانون أمام كل من الدول الأعضاء التابعة لها وكذلك أمام المفوضية الأوروبية. وأخيرًا يلزم القانون (مادة 57-9) المفوضية بإعداد تقارير سنوية لتقييم فعالية إنفاذ القانون عبر الدول الأعضاء والكشف عن حالات عدم الاتساق المحتملة والنواحي التي يمكن تحسينها.


خاتمة

سعت هذه الورقة إلى تقديم قراءة نقدية لقانون الاتحاد الأوروبي للذكاء الاصطناعي. عرضت الورقة من خلال هذه القراءة أهداف القانون، وأبرز ملامحه وأحكامه، والهيئات الرقابية والتنفيذية التي ينشئها. 

يتمتع قانون الاتحاد الأوروبي للذكاء الاصطناعي بمكانة متميزة، نظرًا لكونه أحد أول الأطر التنظيمية للذكاء الاصطناعي في العالم. استغرق تمرير القانون فترة طويلة وواجه تحديات كبيرة. في مقدمة تلك التحديات يأتي التعامل مع المصالح المتعارضة لبعض الدول الأعضاء والضغوط التي مارستها شركات التكنولوجيا الكبرى والمؤثرة في صناعة الذكاء الاصطناعي. على الرغم من ذلك، أمكن للقانون أن يخرج بصورة متماسكة إلى حد كبير.

يتميز القانون بفرضه قواعد قوية للشفافية وأخلاقيات تطوير وتسويق منتجات الذكاء الاصطناعي. كذلك يتميز بمواكبته لما ترتب على التطور السريع لنماذج اللغة والذكاء الاصطناعي التوليدي الذي شهدته الصناعة خلال الأعوام القليلة الماضية. ومن مميزات القانون كذلك اعتماده لمقاربة مبنية على تقييم المخاطر، وهو ما يمكنه من إحداث قدر من التوازن بين أهداف الحماية وأهداف دفع الابتكار والتطور. كما يمنح القانون عناية كبيرة للحقوق والحريات الأساسية ويتميز بقدر من المرونة يساعد على الاتفتاح على الابتكار.

من جانب آخر، يشوب القانون قدر عال من التعقيد في صياغته ومتطلباته. قد يؤدي ذلك إلى صعوبة الالتزام به، خاصة بالنسبة للكيانات الصغيرة والناشئة. كذلك ثمة عدد من التعريفات التي تفتقد إلى الوضوح، أهمها هو تعريف أنظمة الذكاء الاصطناعي عالية الخطورة. يتوقف على هذا التعريف إمكان إنفاذ عدد كبير من المواد الهامة بالقانون.

على الرغم من ذلك، لا يزال الوقت مبكرًا للحكم على مدى فعالية القانون ومدى نجاحه كتجربة أولى للأطر التنظيمية لتكنولوجيا الذكاء الاصطناعي. غالبية أحكام القانون لن يكون بالإمكان تقييم فعاليتها وآثارها الإيجابية أو السلبية إلا بعد فترة من سريانه الفعلي وهو ما لا ينتظر أن يبدأ قبل عام 2025.