تنظيم الذكاء الاصطناعي في مصر: معايير ومبادئ مقترحة

مقدمة

تكنولوجيا الذكاء الاصطناعي عنصر مركزي فاعل وبالغ الأهمية في تطور عالمنا اليوم، والذي أصبح عالمًا رقميًا بشكل متزايد ومتسارع. تعيد هذه التكنولوجيا تشكيل مجتمعاتنا في كل مكان في العالم، وتعيد تعريف تصوراتنا لما يمكن أن تكون عليه التنمية الاقتصادية والاجتماعية في المستقبل. كذلك تضعنا كبشر أمام بعض من أكثر التحديات صعوبة في تاريخنا. فبقدر ضخامة ما تقدمه هذه التكنولوجيا من وعود، بقدر خطورة ما تطرحه من تهديدات، تصل في ظن البعض إلى تهديد الجنس البشري نفسه بالفناء. 

وبغض النظر عن مدى مبالغة تصورات البعض الإيجابية أو السلبية فالحقيقة هي أنه لا يمكن التقليل من أهمية هذه التكنولوجيا لمستقبل أي مجتمع. لذلك، تنظيم تطوير واستخدام الذكاء الاصطناعي هو أحد الضرورات الملحة بالنسبة لأي مجتمع اليوم. فالتنظيم هو الأداة الوحيدة التي يمكن بها ضمان الاستفادة القصوى من الإمكانيات التنموية لهذه التكنولوجيا، وكذلك ضمان توفير الحماية لحقوق الأفراد والمؤسسات في مواجهة التهديدات الناجمة عن الآثار السلبية لها.

أولت مؤسسات الدولة في مصر اهتمامًا لإمكانيات استخدام الذكاء الاصطناعي لتحقيق الأهداف التنموية. انعكس ذلك في إنشاء المجلس الوطني للذكاء الاصطناعي وإصدار عدد من الوثائق الهامة، من بينها الاستراتيجية الوطنية للذكاء الاصطناعي، ووثيقة الميثاق المصري للذكاء الاصطناعي المسؤول. وحسب الإصدار الأخير للاستراتيجية الوطنية للذكاء الاصطناعي، يتم حاليًا إعداد قانون مصري لتنظيم الذكاء الاصطناعي.

نظرًا للأهمية الاستراتيجية لتشريع ينظم استخدام الذكاء الاصطناعي تبادر “مسار” من خلال ورقة السياسات هذه بتقديم معايير لتقييم لهذا التشريع. تنبني هذه المعايير على الجهد السابق لمسار في إطار دراسة الجوانب المختلفة لتكنولوجيا الذكاء الاصطناعي، وبصفة خاصة آثارها المحتملة على الحقوق الأساسية. كذلك تنبني على ما أصدرته مسار من أوراق تتعامل مع متطلبات الأطر التنظيمية لتكنولوجيا الذكاء الاصطناعي وطرحها للمبادئ الأساسية لحوكمة أخلاقية للذكاء الاصطناعي.

تنقسم هذه الورقة إلى ثلاثة أقسام رئيسية: يتعامل القسم الأول مع الأطر العامة لتشريع ينظم استخدام الذكاء الاصطناعي في السياق المصري. يناقش هذا القسم البيئات ذات الصلة التي سيصدر هذا القانون في إطارها، وتشمل كل من البيئة التشريعية والتنظيمية والمعرفية. كذلك يناقش القسم الأول فلسفة القانون ورؤيته وأهدافه والمقاربات المثلى التي ينبغي أن يتخذها لتحقيق الغرض منه.

يتعامل القسم الثاني من الورقة مع المعايير العامة لتقييم التشريع والمبادئ الأساسية التي يتم استخلاص المعايير التفصيلية منها. وأخيرًا يقدم القسم الثالث معايير تقييم الأحكام التفصيلية للقانون، بما في ذلك الأحكام العامة والأحكام المتعلقة بالالتزامات التي ينبغي فرضها على مقدمي خدمات نظم الذكاء الاصطناعي.



القوانين المحلية السارية ذات الصلة

قانون حماية البيانات الشخصية رقم 151 لسنة 2020

 نظم الذكاء الاصطناعي هي الأكثر اعتمادًا على استخدام البيانات من بين جميع أنواع البرمجيات. تعتمد نماذج الذكاء الاصطناعي الحديثة على الاستغلال الكثيف للبيانات في مراحل تطويرها وإعدادها للنشر والاستخدام الفعلي لها. تمثل الانتهاكات والأخطار المتعلقة بجمع وتخزين ومعالجة وتبادل البيانات المصدر الرئيسي للمخاوف والمحاذير المتعلقة بتطوير واستخدام نظم الذكاء الاصطناعي.

من ثم، فوجود قانون لحماية البيانات الشخصية هو ركن ضروري للبيئة التشريعية اللازمة لتنظيم تكنولوجيا الذكاء الاصطناعي. ولذلك أيضًا ينبغي على أي إطار تشريعي متخصص لتنظيم هذه التكنولوجيا أن يتكامل بشكل وثيق مع قانون حماية البيانات الشخصية، وأن يتجنب أية تعارضات معه. كما يجب أن يتجنب هذا التشريع ترك أية مناطق رمادية يمكن من خلالها أن يتقاطع التشريعين معًا مما يتسبب في ازدواج تشريعي، أو لا ينطبق أي منهما مما يسمح لبعض الممارسات بالتسرب خارج النطاق التنظيمي.

الإطار التنظيمي لإنشاء مراكز البيانات لسنة 2021

اعتمد الجهاز القومي لتنظيم الاتصالات هذا الإطار التنظيمي في أغسطس عام 2021. مراكز البيانات هي منشآت عالية التقنية تضم أجهزة ومعدات لحفظ ومعالجة البيانات الضخمة. توفر مراكز البيانات سعات تخزين هائلة وقدرات معالجة كبيرة، خاصة إذا كان بعض خوادمها مزود بشرائح إلكترونية متخصصة.

هذه المراكز ضرورية لتشغيل نظم الذكاء الاصطناعي محليًا، في جميع ظروف الاستخدام غير الشخصي أو التجريبي المحدود. لذلك، ينبغي للقانون ضمان التزام الجهات القائمة على تطوير ونشر وتشغيل أنظمة الذكاء الاصطناعي محليًا بهذا الإطار التنظيمي. كذلك يجب الحرص على عدم وجود أي تعارض بين مواد القانون وبينه.

قانون مكافحة الجرائم الإلكترونية وجرائم تقنية المعلومات المصري رقم 175 لسنة 2018

يجب أن يتوافق قانون الذكاء الاصطناعي مع هذا القانون، ويتحقق ذلك بضمان أن ممارسات أنظمة الذكاء الاصطناعي لا تشكل أفعالًا مجرّمة ولا تُستخدم كأدوات لارتكاب الجرائم الإلكترونية المنصوص عليها في القانون. كما يجب أن يضمن القانون التزام القائمين على نظم المعلومات التي تُشغّل وتُنشر من خلالها أنظمة الذكاء الاصطناعي بالمتطلبات المتعلقة بأمن المعلومات والوصول غير المصرح به المنصوص عليها في قانون مكافحة الجرائم الإلكترونية.

قوانين أخرى ذات صلة باستخدامات نظم الذكاء الاصطناعي

إضافة إلى القوانين السابقة، تنظم القوانين التالية عمل مجالات ذات صلة بالاستخدامات المختلفة لنظم الذكاء الاصطناعي. كما أنها تشكل عناصر هامة في البيئة التشريعية التي ينبغي لقانون تنظيم الذكاء الاصطناعي أن يتوافق ويتكامل معها.

  • قانون حماية المستهلك رقم 181 لسنة 2018.
  • قانون تنظيم الاتصالات رقم 10 لسنة 2003.
  • قانون تنظيم استخدام التكنولوجيا المالية في الأنشطة المالية غير المصرفية رقم 5 لسنة 2022.
  • قانون تنظيم التوقيع الإلكتروني رقم 15 لسنة 2004.
  • قانون حماية حقوق الملكية الفكرية رقم 82 لسنة 2002.

مظاهر النقص والقصور

ثمة عدد من مظاهر النقص والقصور في البيئة التشريعية المصرية والتي يمكن أن تعيق تحقيق قانون تنظيم الذكاء الاصطناعي لأهدافه. من أهم تلك المظاهر ما يلي:

  • عدم صدور اللائحة التنفيذية لقانون حماية البيانات الشخصية: برغم مرور ما يقرب من خمسة أعوام، لم تصدر بعد الحكومة المصرية اللائحة التنفيذية لقانون حماية البيانات الشخصية. ونظرًا لأن هذا القانون يحيل تنظيم جانب كبير من القواعد والإجراءات إلى لائحته التنفيذية فإن إمكانية تفعيل أحكامه في غيابها شبه معدومة. يعني هذا أن القانون في الوقت الحالي يعد منعدم الأثر في الواقع العملي. ويترك هذا عددًا كبيرًا من الثغرات التي لا يمكن لقانون الذكاء الاصطناعي تغطيتها في حين أنها ضرورية لعمله ولتحقيق أهدافه.
  • غياب تشريع لتنظيم الخدمات الرقمية: يشمل مصطلح الخدمات الرقمية نطاقًا واسعًا من الخدمات المقدمة للمستخدمين من خلال الإنترنت. الأمثلة البارزة هي منصات التواصل الاجتماعي، ومحركات البحث، وخدمات الرسائل اللحظية، ومواقع التشغيل عن بعد وغيرها. تستخدم هذه الخدمات نظم الذكاء الاصطناعي بشكل كثيف ومتزايد. كذلك انضم إليها في السنوات الأخيرة خدمات الوصول المباشر إلى نماذج الذكاء الاصطناعي عن طريق تطبيقات المحادثة التي تعتمد على النماذج اللغوية. تتيح هذه الخدمات استخدام النماذج لأغراض تتراوح ما بين الوصول إلى المعلومات وتحليلها، وإعداد تقارير وأوراق علمية، وكتابة كود للبرمجيات، وغير ذلك مما لا يمكن حصره من المهام. يتقاطع تنظيم عمل مثل هذه الخدمات مع أهداف تنظيم الذكاء الاصطناعي. لذلك، يترك غياب هذا التنظيم عديدًا من الثغرات التي لا يمكن لتشريع مختص الذكاء الاصطناعي أن يغطيها.
  • غياب تشريع لتنظيم التجارة والتسويق الإلكترونيين: يرتبط تنظيم عمليات التبادل التجاري والتسوق الإلكتروني بشكل وثيق بتنظيم الخدمات الرقمية وقوانين حماية المستهلك. ولكن نشاط التجارة الإلكترونية ينفرد بخصائص مميزة له، مما يستدعي أن يتم تنظيمه بشكل تفصيلي مستقل. تستخدِم أنشطة التجارة والتسويق الإلكترونيين أنظمة الذكاء الاصطناعي بشكل كثيف، ومن ثم فتنظيم هذا المجال ضروري لاستكمال البيئة التشريعية التي يمكن لقانون مختص بالذكاء الاصطناعي أن يحقق أهدافه فيها.


المؤسسات والهيئات القائمة

  • وزارة الاتصالات وتكنولوجيا المعلومات: هي الجهة الحكومية الرئيسية التي توجه عملية الرقمنة والتطوير التقني في مصر. الوزارة مسؤولة عن وضع الاستراتيجيات الوطنية لتبني تكنولوجيات الذكاء الاصطناعي في شتى قطاعات العمل في مصر. كما أنها مسؤولة عن دعم المشروعات والمبادرات الحكومية والخاصة التي توظف الذكاء الاصطناعي لصالح دفع التنمية الاقتصادية.
  • المجلس الوطني للذكاء الاصطناعي: هو هيئة تابعة لمجلس الوزراء. يرأس المجلس وزير الاتصالات وتكنولوجيا المعلومات ويضم عددًا من الوزراء ورؤساء الجهات المعنية، بالإضافة إلى ثلاثة من ذوي الخبرة. يهدف المجلس إلى مراجعة الاستراتيجية الوطنية للذكاء الاصطناعي والإشراف على تنفيذها، كما كان مسؤولًا عن إطلاق الإصدار الثاني من الاستراتيجية الوطنية 
  • هيئة تنمية صناعة تكنولوجيا المعلومات (ITIDA): تعني الهيئة بدعم قطاع التكنولوجيا والابتكار. كما تقدم الدعم الفني والتمويلي للشركات الناشئة في قطاع تكنولوجيا المعلومات، ومنها تلك التي تطور تطبيقات الذكاء الاصطناعي.
  • للذكاء الاصطناعي 2025-2030.
  • مركز حماية البيانات الشخصية: هو هيئة عامة نص قانون حماية البيانات الشخصية على إنشائها، إلا أنه بسبب تأخر صدور اللائحة التنفيذية لم يتم إنشائه حتى الآن. وفقًا للمادة 19 من القانون، يختص المركز بوضع وتطوير السياسات والخطط الاستراتيجية والبرامج اللازمة لحماية البيانات الشخصية، والقيام على تنفيذها، إلى جانب توحيد سياسات وخطط حماية ومعالجة البيانات الشخصية داخل مصر. وكذلك وضع وتطبيق القرارات والضوابط والتدابير والإجراءات والمعايير الخاصة بحماية البيانات الشخصية.


المقصود بالبيئة المعرفية هو مصادر المعلومات والخبرات السابقة التي يمكن للمشرع الاستعانة بها في مراحل إعداد التشريع ومناقشة تفاصيله وحتى إقراره ووضعه موضع التنفيذ. المحتوى المعرفي المتاح حول الذكاء الاصطناعي بالغ الضخامة وينمو بمعدل سريع، لذا فليس من المتوقع الإحاطة بهذا المحتوى والاطلاع على كل ما يقدمه.

البديل العملي عن ذلك هو الاستعانة بالجهد السابق لجهات محلية ودولية طرحت إما أطرًا تنظيمية وتشريعية لتكنولوجيا الذكاء الاصطناعي أو توجيهات وإرشادات بشأن حوكمة هذه التكنولوجيا. تستعرض الورقة فيما يلي بعضًا من هذه الجهود الأكثر شمولًا.

التجارب التشريعية الدولية

  • قانون الاتحاد الأوروبي للذكاء الاصطناعي: يعد هذا القانون هو أول إطار تشريعي شامل يسعى لتنظيم استخدام الذكاء الاصطناعي في جميع دول الاتحاد الأوروبي. وهو لا يزال الوحيد من نوعه حتى اليوم. يستند القانون على مقاربة التدرج في فرض المتطلبات والالتزامات حسب درجة الخطورة المحتملة لنظم الذكاء الاصطناعي. كما يقدم نموذجًا جيدًا لإحداث قدر كبير من التوازن بين تشجيع نمو وتطور استخدامات الذكاء الاصطناعي وبين توفير الحماية للحقوق والحريات في مواجهة الأخطار المحتملة لتطبيقات هذه التكنولوجيا.
  • الولايات المتحدة الأمريكية: لم تصدر السلطات التشريعية الأمريكية تشريعًا شاملًا لتنظيم استخدام الذكاء الاصطناعي بعد. في المقابل، ظهرت عدة مبادرات للتعامل مع جوانب بعينها من التكنولوجيا ومنها مشروع قانون للمساءلة الخوارزمية Algorithmic Accountability Act. يهدف هذا المشروع إلى تعزيز شفافية الخوارزميات وتمكين الرقابة عليها ومساءلة المسؤولين عن تطويرها ونشرها.

إسهامات المؤسسات الدولية

  • هيئة الأمم المتحدة: تبنت الجمعية العمومية في مارس عام 2024 قرارًا حول دعم تكنولوجيا ذكاء اصطناعي آمنة، وموثوقة، وتسهم في التنمية المستدامة للجميع. تشمل توجيهات الأمم المتحدة لحوكمة الذكاء الاصطناعي مجموعة من المبادئ منها: حماية حقوق الإنسان والشمولية، والشفافية والقابلية للتفسير، والمساءلة وتوزيع المسؤوليات، والتعاون الدولي ووضع معايير موحدة. كذلك سبق لليونيسكو أن أصدرت توصيات خاصة بأخلاقيات الذكاء الاصطناعي في عام 2021.
  • منظمة التعاون الاقتصادي والتنمية (OECD): أصدرت المنظمة مبادئ لاستخدام وتطوير الذكاء الاصطناعي. من أهم هذه المبادئ: النمو الشامل والتنمية المستدامة والرفاهية، والقيم المتمحورة حول الإنسان والإنصاف، والشفافية والقابلية للتفسير، والأمن والسلامة، والمساءلة.

إسهامات المجتمع المدني

قدمت منظمات المجتمع المدني حول العالم عديدًا من الإسهامات المعرفية حول الذكاء الاصطناعي واستخداماته والآثار السلبية المحتملة له على الحقوق والحريات. كما طرح عديد منها تصورات للمعايير الواجب توافرها في الأطر التنظيمية التشريعية وغيرها اللازمة لتنظيم هذه التكنولوجيا.

وفي الإطار المحلي قدمت “مسار” عددًا من الأوراق والتقارير حول تكنولوجيا الذكاء الاصطناعي. وبصفة خاصة ناقشت هذه الأوراق كل من “تنظيم الذكاء الاصطناعي: مقاربات لضمان الاستخدام الآمن للتقنية”. وكذلك “نهج لحوكمة الذكاء الاصطناعي: الأطر الضرورية لتعزيز العدالة وحماية حقوق الإنسان”. كما قدمت إحدى أوراق مسار قراءة نقدية لقانون الإتحاد الأوروبي للذكاء الاصطناعي.



الفلسفة والرؤية

يستلزم تنظيم تكنولوجيا ذات أثر واسع وعميق في ذات الوقت مثل الذكاء الاصطناعي إعداد وإصدار تشريع استراتيجي. والمقصود بذلك أنه تشريع قائم على رؤية تشمل مجمل الطموحات بعيدة المدى لاستخدام هذه التكنولوجيا وكافة الآثار المتوقعة والمحتملة لهذا الاستخدام، سواء كانت إيجابية أو سلبية.

ينبغي لهذا التشريع أن يتكامل بشكل وثيق مع استراتيجية الدولة لتكنولوجيا الذكاء الاصطناعي بوصفه أداة رئيسية لتحقيق أهداف هذه الاستراتيجية. فالرؤية المناسبة لهذا التشريع هي تشجيع ودفع تطور استخدامات الذكاء الاصطناعي داخل مصر بصورة آمنة وموثوقة مع توفير الحماية لحقوق ومصالح المواطنين والمؤسسات العامة والخاصة.

يجب أن يعلن التشريع من خلال مذكرته التفسيرية أو نصوص مواده فلسفته ورؤيته بعبارات واضحة. هذا ضروري حتى يتسنى للمخاطبين بالقانون إدراك الإطار العام الحاكم لنصوصه، وهو ما يساعد في تفسير هذه النصوص بشكل صحيح. كذلك توضح فلسفة القانون ورؤيته للجهات المنوط بها إنفاذه الروح المطلوبة لتطبيق أحكامه على أرض الواقع.

الأهداف

أهداف القانون هي الجسر الرابط بين فلسفته ورؤيته وبين ترجمتهما في نصوصه وأحكامه. النص صراحة على الأهداف التي تسعى نصوص القانون لتحقيقها أمر بالغ الأهمية لتيسير فهمه من قبل الأطراف المختلفة المعنية بتطبيقه. إلى جانب ذلك، ثمة عدة اعتبارات ينبغي مراعاتها في صياغة هذه الأهداف وهي:

  • الوضوح والاتساق والتواؤم مع الفلسفة والرؤية: المقصود بوضوح الأهداف هو صياغة كل منها بشكل لا ينطوي على أي إبهام يسمح بتعدد تفسيراتها وتعارضها. أما الاتساق فيعني تكامل الأهداف فيما بينها وتجنب أي تعارض بينها. ويعتمد تحقيق كلا الاعتبارين على مدى تواؤم الأهداف مع فلسفة القانون ورؤيته بحيث تكون ترجمة أمينة لها.
  • الشمول والتوازن: ينبغي أن تغطي أهداف القانون كامل مجال عمله. يعني ذلك أن تغطي الأهداف كافة أوجه الاستخدام المتوقعة والمحتملة لتكنولوجيا الذكاء الاصطناعي، وكافة صور الآثار الاقتصادية والاجتماعية المترتبة عليها. يلزم كذلك أن توضح الأهداف التوازن المطلوب تحقيقه بين تشجيع تطور واستخدام الذكاء الاصطناعي وتعظيم آثاره الإيجابية وبين توفير الحماية في مواجهة الآثار السلبية المحتملة له.
  • الترتيب حسب الأولويات: يجب أن تعكس الأهداف تراتبية واضحة بينها قائمة على عدد من الأولويات والانحيازات الواضحة. بصفة خاصة، ينبغي أن توضح الأهداف أولوية حماية الحقوق الأساسية للمواطنين على تحقيق المصالح الاقتصادية للمؤسسات في حال تعارض الجانبين.

المقاربات

يناقش هذا القسم ثلاث من المقاربات المثلى التي يمكن أن يتخذها القانون لتحقيق أهدافه. ويعرض معايير تقييم مدى التزام القانون بهذه المقاربات.

مقاربة التدرج في المتطلبات والالتزامات حسب معيار الخطورة

تكنولوجيا الذكاء الاصطناعي بطبيعتها واسعة النطاق وعالية التنوع. لذلك، من الضروري أن يتخذ التشريع المعني بتنظيمها مقاربة تعتمد على التدرج في فرض المتطلبات والالتزامات. تعد هذه المقاربة هي الأفضل لتحقيق التوازن بين هدفي تعظيم الآثار الإيجابية على التنمية الاقتصادية والاجتماعية من جانب، وتوفير الحماية لحقوق الأفراد والمؤسسات في مواجهة الأخطار المحتملة لتطوير واستخدام هذه التكنولوجيا من جانب آخر.

يعتبر اعتماد مبدأ الخطورة المحتملة كأساس للتدرج في المتطلبات والالتزامات مثاليًا وضروريًا بالنسبة لهذا القانون. وذلك لأن بالإمكان تحديد معايير واضحة لتصنيف أنظمة الذكاء الاصطناعي من حيث الأخطار المحتملة لعمليات تطويرها واستخدامها. كذلك يمكن تحديد ما تقتضيه درجات الخطورة المختلفة من متطلبات والتزامات للجهات القائمة بعمليات تطوير ونشر هذه الأنظمة.

مقاربة المرونة المشروطة في التطبيق

المقصود بالمرونة المشروطة هو إتاحة مساحة من حرية الحركة للجهات التنظيمية والرقابية بشروط محددة وواضحة. وهذه المقاربة ضرورية لتشريع يتعامل مع ظاهرة دائمة وسريعة التطور والنمو لتجنب أن يفقد التشريع القابلية للتنفيذ على مستحدثات هذه الظاهرة. 

تقتضي هذه المقاربة أن تكون بعض أحكام القانون عمومية وشاملة مع إتاحة قدر من حرية الحركة للجهات التنظيمية والرقابية ذات الصلة لتحديد إمكانية تطبيق القانون في الحالات المستجدة. ويشترط لإتاحة هذه الحرية وجود قواعد واضحة ينبغي على الجهات المشار إليها الالتزام بها عند ممارسة دورها.

مقاربة القابلية للتطور

القابلية للتطور من ضرورات التعامل مع تكنولوجيا تتطور بسرعة وفي اتجاهات لا يمكن التنبؤ بها بدقة على المدى المتوسط والبعيد. مع إضافة أن هذه التكنولوجيا لها آثار اقتصادية واجتماعية واسعة النطاق، مما يعني أن البيئة المحيطة بها لابد وأن تتطور بشكل متسارع بدورها.لذلك، فأي مرونة يتمتع بها تشريع ينظم هذه التكنولوجيا تظل لها حدود عملية تحول دون أن تسمح بملاحقة تطورها على المدى البعيد.

من ثم، فعلى التشريع ذاته أن يكون قابلًا للمراجعة والتطور مع الوقت. ولضمان أن تتم عملية التطور هذه بأكبر قدر من السلاسة والفعالية ينبغي للتشريع نفسه أن ينظمها ويضع لها الشروط والإجراءات المناسبة. يشمل ذلك تحديد الجهات المنوط بها القيام بعملية المراجعة بصورة دورية أو عند الحاجة إليها واقتراح التعديلات المطلوبة.



معايير عامة

يناقش هذا القسم مجموعة من المعايير العامة لتقييم نص وأحكام القانون. والمقصود بذلك أنها معايير تنطبق على جميع نصوص القانون ولا تختص بمجموعة منها على وجه التحديد. تشمل هذه المعايير العامة ما يلي:

اللغة

وضوح اللغة المستخدمة ودقة صياغة العبارات هي من المعايير العامة والأساسية لتقييم أي نص تشريعي. ولكن السياق الخاص لتشريع تنظيمي لتكنولوجيا متقدمة وتتطور باستمرار مثل الذكاء الاصطناعي يضيف مجموعة من الاعتبارات لتحقيق هذه المعايير، ومنها:

  • ضبط المصطلحات التقنية: ينبغي لاستخدام أي مصطلح تقني متخصص أن يكون دقيقًا ومتسقًا مع الاستخدام الصحيح لهذا المصطلح في الواقع العملي.
  • تقديم تعريفات واضحة للمصطلحات التقنية: يجب أن يحتوي قسم التعريفات بالقانون على تعريف بكل المصطلحات التقنية المستخدمة فيه، وينبغي التأكد من دقة وشمول هذه التعريفات. إذا دعت الضرورة لذلك، يمكن إضافة كشاف للمصطلحات باللغة العربية وما يقابلها باللغة الإنجليزية كملحق بالقانون. من الممكن أن يساعد ذلك المخاطبين بالقانون من الفنيين والمتخصصين المعتادين لاستخدام المصطلحات باللغة الإنجليزية نظرًا لطبيعة عملهم.
  • الاتساق في استخدام المصطلحات التقنية: يجب ألا يتم استخدام أكثر من مصطلح للإشارة إلى نفس المعنى في مواقع مختلفة من النص.

الشمول

ينبغي أن يتصف قانون تنظيم الذكاء الاصطناعي بالشمول. هذا يعني أن يغطي القانون كافة الجوانب ذات الصلة بمجاله التنظيمي، ويشمل ذلك:

  • شمول نص القانون لجميع السيناريوهات المستقبلية المحتملة لاستخدام الذكاء الاصطناعي داخل نطاق الولاية القانونية له.
  • تعامل القانون مع كافة مراحل تصميم وتطوير ونشر وتوزيع واستخدام نظم الذكاء الاصطناعي.
  • استيفاء نص القانون لكافة الاعتبارات المحققة لأهدافه في صياغاته التفصيلية. ويعنى ذلك عدم إغفال أي من هذه الاعتبارات أو مناقضتها في النص.

حدود الإحالة إلى اللائحة التنفيذية

أظهرت العديد من التجارب السابقة أن التوسع غير المبرر في إحالة استكمال وضع القواعد والإجراءات إلى اللائحة التنفيذية له عدد كبير من الأضرار. من تلك الأضرار ارتهان التطبيق الفعلي لأحكام القانون للمقتضيات السياسية للسلطة التنفيذية والتي قد تؤدي إلى تأجيل إصدار اللائحة التنفيذية ومن ثم تعليق سريان القانون عمليًا. لذلك، يلزم أن تقتصر الإحالة إلى اللائحة التنفيذية على ما تقتضيه الضرورة، بما في ذلك التفاصيل الإجرائية والجوانب التقنية الدقيقة.

حدود تفويض السلطات للجهات التنفيذية

ينبغي أن يمنح القانون الجهات التنفيذية ذات الصلة بتطبيق أحكامه السلطات الكافية للقيام بدورها بشكل فعال. كما يجب ألا تُمنح هذه الجهات سلطات تقديرية تخل بالتطبيق المتسق لأحكام القانون أو بالدور الذي تضطلع به السلطة القضائية. كذلك ينبغي عدم منح أية جهات تنفيذية إعفاءات مفتوحة من الخضوع لأحكام القانون فيما يتعلق باستخدامها لتكنولوجيا الذكاء الاصطناعي. ويلزم لمراعاة أية ظروف خاصة لهذه الجهات أن تتم من خلال إجراءات تحافظ على اتساق تطبيق أحكام القانون.

المبادئ الأساسية اللازمة لحوكمة أخلاقية للذكاء الاصطناعي

أصدرت “مسار” في يناير السابق ورقة تفصيلية بعنوان “نهج لحوكمة الذكاء الاصطناعي: الأطر الضرورية لتعزيز العدالة وحماية حقوق الإنسان”. تتضمن هذه الورقة شرحًا تفصيليًا للمبادئ الأساسية اللازمة لحوكمة أخلاقية لتكنولوجيا الذكاء الاصطناعي. وفيما يلي المبادئ التي ناقشتها الورقة:

  • الأمن، والشفافية، والشمول، والإنصاف.
  • التناسبية، والتعلم المستمر، وحرية التعبير.
  • بناء القدرات، وعدم التمييز، والإشراف البشري.
  • الجبر والتعويض، والتعاون الدولي، والقابلية للمحاسبة.
  • الاعتبارات الأخلاقية، والوصول إلى العدالة، وجودة البيانات
  • تجنب الانحياز، وحظر المراقبة الجماعية،و حماية الجماعات المستضعفة.
  • المسؤولية البيئية والاجتماعية، وتقييم الأثر على حقوق الإنسان.
  • حظر الأسلحة المستقلة القاتلة.
  • الخصوصية وحماية البيانات، وتعاون أصحاب المصلحة المتعددين.
  • منع إساءة استخدام الذكاء الاصطناعي، والاستخدام الأخلاقي للذكاء الاصطناعي في إنفاذ القانون.

تستخدم الورقة الحالية هذه المبادئ الأساسية لاستخلاص معايير لتقييم مدى تحقيق نصوص تشريع ينظم الذكاء الاصطناعي في مصر لها. على جانب آخر، تراعي الأقسام التالية للورقة تنظيم معايير التقييم بحيث تقابل بأكبر قدر ممكن الهيكل المتوقع للقانون.

لذلك، كل من المعايير الواردة لاحقًا قد يسهم في تحقيق واحد أو أكثر من المبادئ الأساسية. كما قد تتوزع مهام تحقيق أي من هذه المبادئ بين عدد من المعايير التي تنتمي إلى أقسام مختلفة من القانون. ومع ذلك، ففي مناقشة كل معيار على حدة ستتضح علاقته بالمبادئ التي يسعى إلى تحقيقها.

معايير تقييم أحكام القانون

يناقش هذا القسم في أجزائه المختلفة معايير تفصيلية لتقييم أحكام ونصوص قانون مصري لتنظيم الذكاء الاصطناعي. تعتمد صياغة المعايير على المبادئ الأساسية لحوكمة أخلاقية للذكاء الاصطناعي، كما تعتمد أيضًا على التجارب التشريعية والتوجيهات الإرشادية الدولية التي سبق الإشارة. وأخيرًا تعتمد هذه المعايير على الخبرة المحلية السابقة في مجال التنظيم التشريعي لمجالات التكنولوجيا المتقدمة، بما في ذلك الجوانب الإيجابية والسلبية لهذه الخبرة.



الولاية القانونية ونطاق التطبيق

تتميز مجالات التكنولوجيا الرقمية المعتمدة على الشبكات وفي مقدمتها شبكة الإنترنت بأن قسمًا كبيرًا من تطبيقاتها عابر للحدود التقليدية للولاية القانونية Jurisdiction. لا يختلف الذكاء الاصطناعي في هذا الجانب عن غيره من التكنولوجيات الرقمية حيث يتاح عدد ضخم من تطبيقات الذكاء الاصطناعي كخدمات رقمية من خلال الإنترنت. 

يمكِّن ذلك الأفراد والمؤسسات من الوصول إليها من أي مكان في العالم. كذلك فإن عمليات جمع وتخزين ومعالجة البيانات المستخدمة في تطوير واستخدام نظم الذكاء الاصطناعي هي في أغلب الأحيان عابرة للحدود السياسية وتتوزع على مراكز بيانات منتشرة حول العالم.

لحل هذه الإشكالية، ينبغي أن يعتمد القانون مقاربة تقوم على تحديد نطاق تطبيقه بناء على تقاطع نطاقين هما:

  • نطاق تأثير نظام الذكاء الاصطناعي.
  • نطاق المسؤولية التشريعية عن حماية حقوق ومصالح المواطنين والمقيمين على الأراضي المصرية.

بعبارة أخرى يجب أن يشمل نطاق تطبيق القانون أي نظام ذكاء اصطناعي تتم أي مرحلة من مراحل دورة حياته داخل الحدود الجغرافية المصرية. يشمل ذلك مراحل الاستخدام التي قد تتم من خلال وصول الأفراد والمؤسسات إلى نظام الذكاء الاصطناعي من خلال الإنترنت.

التعريفات الأساسية

ناقشت الورقة في قسم سابق عدة اعتبارات من حيث اللغة والصياغة ذات صلة بتعريف القانون للمصطلحات الواردة فيه. إضافة إلى ذلك، تطرح النقاط التالية اعتبارات خاصة ببعض التعريفات ذات الأهمية الخاصة.

  • تعريف نظام الذكاء الاصطناعي: هذا التعريف محوري في تحديد نطاق تطبيق القانون وأي صور من البرمجيات تقع في مجال اختصاصه وتنطبق عليها أحكامه. ثمة في الواقع العملي أنواع عدة من الذكاء الاصطناعي، مثل نظم تعلم الآلة Machine learning، ونظم التعلم العميق Deep learning، وغيرها. كذلك من المحتمل أن تظهر تكنولوجيات جديدة في مجال الذكاء الاصطناعي في وقت قريب. بالتالي، ففي حين يلزم لتعريف نظم الذكاء الاصطناعي أن يشمل كافة التكنولوجيات الحالية، فعليه أيضًا أن يمتد بقدر الإمكان ليشمل أية تكنولوجيات قد تظهر في المستقبل القريب. يمكن تحقيق ذلك بتعريف نظام الذكاء الاصطناعي بما يميزه من حيث كونه يحاكي العمليات الذهنية البشرية في معالجة البيانات وبصفة أخص في اتخاذ القرارات.
  • تصنيف نظم الذكاء الاصطناعي من حيث الخطورة: يجب أن يقدم القانون تعريفات واضحة لكل من: النظم ذات الخطورة غير المقبولة، والنظم عالية الخطورة، والنظم محدودة ومنخفضة الخطورة. ينبغي أن تعكس هذه التعريفات معايير التصنيف التي يعتمدها القانون للتمييز بين درجات خطورة نظم الذكاء الاصطناعي. وتناقش الورقة هذه المعايير بشكل تفصيلي في قسم لاحق منها.
  • تعريف بيانات التدريب والاختبار: يجب أن يقدم القانون تعريفًا واضحًا لحزم البيانات المستخدمة تحديدًا لأغراض تدريب واختبار نظم الذكاء الاصطناعي. ينبغي تمييز هذه البيانات عن غيرها مما يمكن استخدامه كمدخلات لنظام الذكاء الاصطناعي في مراحل تشغيله، حيث تخضع لاعتبارات خاصة تنص عليها أحكام القانون.
  • الإشراف البشري: ينبغي أن يقدم القانون تعريفًا واضحًا للمقصود بالإشراف البشري الفعال. يلزم إيضاح أن هذا الإشراف لا يقتصر على مراقبة عمل نظام الذكاء الاصطناعي وإنما يجب أن يتوافر له القدر الكافي من إمكانية التدخل، والذي يترافق معه المسؤولية البشرية وإمكانية المحاسبة.

تصنيف ممارسات ونظم الذكاء الاصطناعي

يتناول هذا القسم معايير تقييم تصنيف القانون لممارسات ومنتجات الذكاء الاصطناعي تحقيقًا لمقاربة التدرج في المتطلبات والالتزامات حسب درجة الخطورة.

معايير التصنيف

  • يجب أن تكون معايير التنصيف واضحة ومحددة من حيث الشكل. يعني هذا تجنب استخدام أية عبارات مبهمة أو غامضة أو مطاطة في النص على هذه المعايير. كذلك ينبغي الإشارة إلى أمثلة معروفة في الواقع العملي لمزيد من الوضوح لما تنطبق عليه المعايير.
  • يلزم أن تغطي معايير التصنيف كل الجوانب المؤثرة في مدى خطورة نظام الذكاء الاصطناعي، وتشمل أهم هذه الجوانب ما يلي:
  • الغرض من نظام الذكاء الاصطناعي والمجال الذي سيستخدم فيه.
  • الآثار المحتملة لكافة عمليات تصميم وتطوير وتدريب واختبار ونشر وتشغيل واستخدام نظام الذكاء الاصطناعي على الحقوق الأساسية للأفراد والمؤسسات ذات الصلة وسلامتهم من الأضرار المادية والمعنوية.
  • مستويات الشفافية التي يتيحها نظام الذكاء الاصطناعي وإمكانية ومدى تدخل الإشراف البشري في المراحل المختلفة لعمله.
  • مستوى جودة البيانات التي يعتمد عليها نظام الذكاء الاصطناعي لأغراض التدريب والاختبار، ومدى إمكان وجود انحياز بها.

الممارسات المحظورة

تشكل بعض ممارسات نظم الذكاء الاصطناعي انتهاكًا واضحًا للحقوق والحريات الأساسية. كما يشكل بعضها أخطارًا مباشرة على حياة وسلامة ومصالح الأفراد والمؤسسات. وإضافة إلى ضرورة أن توضح معايير تصنيف نظم الذكاء الاصطناعي القواعد المحددة التي يمكن على أساسها حظر بعض هذه النظم يجب أن ينص القانون صراحة على حظر ممارسات بعينها، وهي:

  • التلاعب السلوكي: يجب حظر استخدام الذكاء الاصطناعي في توجيه أو تعديل سلوك الأفراد. يعد ذلك خرقًا لحريتهم في الاختيار وقد يؤدي إلى أضرار جسيمة على مستوى الأفراد والمؤسسات وصولًا إلى الإضرار بالأمن القومي.
  • التقييم والتنميط الاجتماعي: ينبغي حظر استخدام الذكاء الاصطناعي في تقييم و/أو تصنيف الأفراد اجتماعيًا، وخاصة في إنشاء نظم النقاط الاجتماعية، أو التنميط الجنائي وتقييم المخاطر بناء على معايير تؤدي إلى التمييز.
  • التعرف على الوجوه وجمع البيانات البيومترية: يجب حظر استخدام نظم التعرف على الوجوه وهويات الأفراد التي تعتمد على تجميع البيانات دون ضوابط قانونية مشروعة ومبررة وفي حدود ضيقة، مما يمثل انتهاكًا فادحًا للحق في الخصوصية.
  • استنتاج العواطف وتخمين البيانات الحساسة: ينبغي حظر استخدام الذكاء الاصطناعي في استنتاج عواطف الأفراد أو في التوصل بشكل غير مباشر إلى بيانات شخصية حساسة، إلا في حالات الضرورة المبررة طبيًا (تشخيص الأمراض العضوية والاضطرابات النفسية إلخ.) وفي حدود الشرعية والموافقة والعلم المسبق.
  • المراقبة الجماعية: يلزم أن ينص القانون صراحة على حظر استخدام الذكاء الاصطناعي في عمليات المراقبة الجماعية والاختراق العشوائي واسع النطاق لنظم المعلومات المملوكة للأفراد أو المؤسسات.
  • الأسلحة المستقلة القاتلة: ينبغي أن ينص القانون على حظر استخدام نظم الأسلحة المستقلة المعتمدة على الذكاء الاصطناعي والتي تحدد أهدافها وتتخذ قرار استخدام القوة المميتة دون إشراف أو تدخل بشري.

النظم عالية الخطورة

تُراعى الاعتبارات التالية عند تصنيف أي من نظم الذكاء الاصطناعي في فئة النظم عالية الخطورة، وذلك على أساس الجوانب السابقة:

  • الغرض والاستخدام: ينبغي أن ينص القانون في معايير تصنيف نظم الذكاء الاصطناعي على مجالات بعينها تعتبر النظم المستخدمة فيها عالية الخطورة. من أمثلة هذه المجالات القطاعات الحساسة، مثل الرعاية الصحية، والأمن. كذلك نظم اتخاذ القرارات التي تؤثر مباشرة على مصالح أساسية للأفراد مثل قرارات الإقراض، والتأهل للحصول على الخدمات الأساسية.
  • الآثار المحتملة على الحقوق الأساسية والسلامة: يلزم أن تتضمن معايير التصنيف قياس احتمال تسبب النظام في انتهاك حقوق الإنسان أو تشكيل خطر على صحة وسلامة الأفراد. تُصنَف النظم التي يمكن أن يؤدي استخدامها إلى تقييد حرية الأفراد، أو التمييز ضدهم، أو الإضرار بالصحة أو السلامة العامة كنظم عالية الخطورة. كما يلزم تحديد حدودًا واضحة لمدى احتمالية هذه المخاطر يتعين معها الحظر الكامل للنظم المعنية.
  • مستويات الشفافية والإشراف البشري: يجب أن تأخذ معايير تصنيف نظم الذكاء الاصطناعي في الاعتبار المستوى الذي تتيحه النظم المختلفة للإشراف والتدخل البشري. كما يجب تصنيف النظم التي لا تسمح بمستوى محدد من الشفافية والإشراف البشري كنظم عالية الخطورة بحيث يمكن تطبيق متطلبات والتزامات أكثر صرامة عليها.
  • جودة البيانات ومدى احتمال تحيزها: ينبغي تصنيف نظم الذكاء الاصطناعي التي يُخشى اعتمادها على بيانات لا يمكن التحكم في جودتها أو قد تنطوي على تحيز، كنظم عالية الخطورة. يسمح ذلك بتطبيق التزامات أكثر صرامة تتيح إمكانية كشف تدني جودة البيانات أو وجود تحيز بها.


ضمانات الالتزام

ينبغي أن يرتب القانون لوجود ضمانات تهدف للتأكد من التزام الجهات القائمة على تطوير ونشر واستخدام نظم الذكاء الاصطناعي بالمتطلبات التي ينص عليها. يجب أن تشمل هذه الضمانات ما يلي:

  • آليات المتابعة والمراقبة: يلزم أن يسند القانون إلى هيئة رسمية أو أكثر أو أن ينشيء هيئة مختصة للإشراف على تطبيق أحكامه. يكون من اختصاصات هذه الهيئة أو الهيئات مراقبة عمليات التطوير والتسويق والقيام بإجراء تقييمات دورية لضمان استمرارية الامتثال.
  • التسجيل في قواعد بيانات عامة: يجب أن ينص القانون على إنشاء قاعدة بيانات عامة يُلزم الجهات القائمة على تطوير ونشر واستخدام نظم الذكاء الاصطناعي بتسجيل النظم المصنفة كعالية الخطورة فيها. يتيح ذلك إمكانية تتبع هذه النظم ومراقبة تأثيرها على المستخدمين.
  • إجراءات تقييم المخاطر والتوثيق الفني: ينبغي أن يُلزم القانون الجهات القائمة على تطوير ونشر واستخدام نظم الذكاء الاصطناعي بإجراء تقييم شامل للمخاطر كجزء من المستندات المطلوبة للتصريح باستخدام نظمها. كما ينبغي إلزام هذه الجهات بإعداد سجلات توثيقية مفصلة تتضمن معلومات عن بيانات التدريب وطرق الاختبار وآليات إدارة المخاطر. يسهم ذلك في تمكين السلطات من مراجعة الأداء والتأكد من توافق الأنظمة مع متطلبات القانون.
  • فرض عقوبات وغرامات مالية: ينبغي أن ينص القانون على فرض عقوبات مناسبة على المخالفين. يجب أن يراعى في تحديد العقوبات الأثر المتحقق أو المحتمل للمخالفة، والعائد المادي المتحصل الذي يمثل الدافع لارتكابها. تتراوح العقوبات بين الغرامات المالية إلى تعليق الاعتمادات والتراخيص والتصاريح ذات الصلة أو إلغائها بشكل كامل.

نظم إدارة الأزمات

يجب أن يتضمن القانون تعريف مفهوم الأزمات المتصلة بتطوير واستخدام الذكاء الاصطناعي، وأن يحدد على سبيل الحصر الحالات التي تعتبر أزمة ينبغي إدارتها من خلال آلية خاصة. كذلك ينبغي على القانون أن يحدد الجهات القائمة بالفعل، أو التي ينص على إنشائها، والمنوط بها التعامل مع هذه الأزمات.

إضافة إلى ذلك، يلزم أن ينص القانون على الإجراءات الواجب اتباعها لإدارة الأزمات. يشمل ذلك سبل الكشف أو الإبلاغ عن تهديد بأزمة أو وقوعها، والجهات المطلوب إبلاغها، والمدى الزمني المحدد لذلك. كما يجب أن يحدد القانون الأدوار والالتزامات والمسؤوليات للجهات المختلفة ذات الصلة.

تشمل الإجراءات الواجب النص عليها فيما يتعلق بإدارة الأزمات تحقيق الشفافية بما يتناسب مع طبيعة وحجم الأزمة من خلال سبل إخطار المعنيين والمتضررين المحتملين وتوقيتات ذلك. وكذلك سبل الإعلان عن الأزمة وتطورها وما تم اتخاذه من إجراءات للتعامل معها للجمهور.

حوكمة البيانات

ينبغي أن تراعي نصوص القانون ذات الصلة بحوكمة البيانات الاعتبارات التالية:

  • ضمان جودة وملاءمة البيانات: تتعلق شروط الجودة والملاءمة بالبيانات المستخدمة في تدريب نماذج الذكاء الاصطناعي بصفة خاصة. يجب أن ينص القانون على إلزام الجهة المعنية بتقديم ما يلزم للتأكد من جودة هذه البيانات (صحتها وشمولها وتمثيلها وعدم انحيازها)، وتضمن ملاءمتها للغرض المستخدمة له.
  • تطبيق مبدأ تحجيم البيانات Data Minimization: ينبغي أن يلزم القانون الجهة المعنية بتقديم ما يثبت التزامها بمبدأ تحجيم البيانات. يعني ذلك ألا تجمع هذه الجهة في أي مرحلة من مراحل تطوير واستخدام الذكاء الاصطناعي أية بيانات تتخطى ما هو ضروري لتحقيق النظام للغرض منه.
  • آليات الكشف عن انحياز البيانات: يجب أن يلزم القانون الجهة المعنية بتقديم ما يثبت استخدامها أو تضمينها في نظام الذكاء الاصطناعي آليات تسمح بالكشف عن أي انحياز للبيانات المستخدمة في مراحل تطوير أو تدريب أو استخدام النظام.
  • الشفافية والتوثيق: ينبغي أن يلزم القانون الجهة المعنية بتقديم كافة المعلومات التي توضح مصادر البيانات المستخدمة في تطوير واستخدام نظام الذكاء الاصطناعي. كما يجب أن يلزمها بتوثيق هذه البيانات وحفظ هذا التوثيق وتقديمه لجهات الرقابة والإشراف في صيغة مناسبة عند طلبه في الحالات التي يقررها القانون.
  • التكامل مع إطار تقييم المخاطر: يلزم أن تتكامل الإجراءات التي ينص عليها القانون بخصوص حوكمة البيانات مع إطار تقييم المخاطر. فينبغي إلزام الجهة المعنية بأن يتضمن تقرير تقييم المخاطر الذي تقدمه تقييمًا لمدى حساسية البيانات التي سيستخدمها النظام وتقييم مخاطر تسربها أو اختراقها، وإجراءات التأمين المتاحة لتجنب ذلك.

التوثيق وحفظ السجلات

يعد التوثيق أحد الأركان الأساسية التي يعتمد عليها تحقيق مبدأ الشفافية. كما أنه ضروري لتمكين آليات المتابعة والرقابة والإشراف التي يتطلبها القانون من بين ضمانات الالتزام به. تتضمن عدة معايير متطلبات للتوثيق أوردتها الورقة عند مناقشة هذه المعايير. ويطرح القسم الحالي عددًا من الاعتبارات الإضافية وهي:

  • توثيق التصميم والتطوير: ينبغي أن يلزم القانون الجهات القائمة على تصميم وتطوير نظم الذكاء الاصطناعي بإعداد وثائق فنية شاملة. تشرح تلك الوثائق التصميم الداخلي للنظام، وطرق تدريبه، والآليات المستخدمة في اتخاذ القرارات بما يضمن وضوح عملية التطوير وتوفير مرجعية تقنية لاستخدامها لاحقًا في تقييم الالتزام بمتطلبات القانون.
  • توثيق بيانات التدريب والاختبار: يجب إلزام الجهات القائمة على تصميم وتطوير نظم الذكاء الاصطناعي بتوضيح مصادر البيانات المستخدمة، وبصفة خاصة الاختبارات المجراة لضمان جودة وتنوع البيانات وخلوها من الانحياز. إضافة إلى وصف للعمليات المتبعة لتنظيف وترميز البيانات.
  • سجلات التقييم وإدارة المخاطر: ينبغي أن يلزم القانون الجهات القائمة على تصميم وتطوير نظم الذكاء الاصطناعي المصنفة كعالية الخطورة بإجراء تقييم دوري للمخاطر يشمل تحليل تأثير النظام على الحقوق الأساسية والسلامة. كما يجب إلزام هذه الجهات بتوثيق النتائج والإجراءات التصحيحية المتخذة، مع النص على أن تكون هذه السجلات متاحة عند طلبها من قبل الجهات الرقابية المختصة.

 متطلبات الشفافية

ينبغي أن ينص القانون على إلزام الجهة المعنية بتطوير أو استخدام نظام الذكاء الاصطناعي بإجراءات كافية لتحقيق متطلبات الشفافية. تشمل هذه المتطلبات تلك الخاصة بكل من حوكمة البيانات والتوثيق. 

كما يجب أن يلزم القانون الجهات المسؤولة عن تطوير ونشر نظم الذكاء الاصطناعي والتي تقدم خدماتها بشكل مباشر للجمهور بأن تنشر من خلال منافذ سهل الوصول إليها القدر الكافي من المعلومات حول الآتي:

  • نوع البيانات التي تستخدمها نظم الذكاء الاصطناعي وطريقة معالجتها.
  • معلومات للتواصل المباشر لمن يحتاج إلى معرفة ما إذا كانت بياناته الشخصية يتم جمعها ومعالجتها.
  • معلومات حول سبل تمكين أي شخص معني من حقه في تعديل أو تصحيح أو محو بيانات شخصية تخصه.

تشمل متطلبات الشفافية أيضًا النص على إلزام الجهات التي تقوم على تطوير واستخدام نظم الذكاء الاصطناعي عالية الخطورة بنشر تقارير دورية حول أداء هذه النظم وأي مشاكل أو تهديدات واجهتها. وكذلك إلزامها بنشر تقارير طارئة في حال وقوع حدث أمني قد يترتب عليه أضرار تلحق بالأفراد أو المؤسسات.

على جانب آخر، يجب أن يلزم القانون جهات الرقابة والإشراف والتحقيق ذات الصلة بأن تنشر تقارير دورية عن أعمالها وأخرى طارئة حول الوقائع الخاصة. وإذا ما استدعت مجريات أي تحقيق عدم النشر بخصوصه أثناء إجرائه ينبغي في جميع الحالات أن تكون نتائج التحقيق علنية.

الإشراف البشري

ينبغي للقانون فرض متطلبات تضمن توافر الحد الأدنى المقبول من الإشراف البشري على نظم الذكاء الاصطناعي خلال عمليات تطويرها واستخدامها. يجب أخذ عامل توافر الإشراف البشري في الاعتبار في معايير تصنيف نظم الذكاء الاصطناعي من حيث الخطورة. كما ينبغي للمتطلبات والالتزامات التي يفرضها القانون أن تراعي الاعتبارات التالية لضمان قدر مناسب من الإشراف البشري.

  • الرقابة البشرية التزامنية أو الحية: يجب فرض الالتزام بتوفير إمكانية الرقابة البشرية التزامنية أو الحية لعمل نظم الذكاء الاصطناعي في الاستخدامات الحساسة، مثل الاستخدامات المتعلقة بتشغيل المرافق العامة أو النظم الأمنية.
  • المسؤولية البشرية عن اتخاذ القرارات: ينبغي أن يفرض القانون على نظم الذكاء الاصطناعي التي تتخذ قرارات ذات تأثير في مصالح الأفراد أو التي يمكن أن تشكل تهديدًا لحقوقهم أن تتم مراجعة قراراتها من خلال مسؤولين بشريين.
  • التدخل البشري: يلزم أن يفرض القانون أن تتيح نظم الذكاء الاصطناعي عالية الخطورة إمكانية التدخل البشري لتعديل عمل النظام أو وقف عمله إذا دعت الضرورة. كما ينبغي أن ينص القانون صراحة على الحالات التي يلزم فيها هذا التدخل البشري، والمسؤولية القانونية المترتبة على غيابه.

الدقة والجودة والأمن السيبراني

ينبغي أن تتضمن نصوص القانون أحكامًا تستهدف إلزام الجهات القائمة على تصميم وتطوير ونشر نظم الذكاء الاصطناعي بضمانات تتعلق بالدقة والجودة واعتبارات الأمن السيبراني. تشمل تلك الضمانات:

  • الإلزام بتقديم نتائج اختبارات معتمدة لتقييم مدى دقة النظام وبصفة خاصة ما يتعلق بألية اتخاذ القرارات.
  • الإلزام بتقديم تقييمات لمدى ملاءمة النظام للغرض المصمم له وجودته، مما يعني خلوه من العيوب الخطيرة وأخطاء البرمجة أو أي خلل في البيئة المعلوماتية التي يعتمد عليها.
  • الإلزام بتقديم ما يثبت التزام النظام باعتبارات الأمن السيبراني، وخلوه من أية ثغرات قد تهدد عمله أو البيانات التي يستخدمها أو نظم المعلومات التي يعمل عليها.

التزامات مقدمي خدمات النظم عالية الخطورة

ينبغي أن يميز القانون بشكل واضح بين المتطلبات والالتزامات العامة التي تنطبق على جميع مقدمي خدمات نظم الذكاء الاصطناعي، وبين المتطلبات والالتزامات الإضافية التي تنطبق فقط على الأنظمة المصنفة كعالية الخطورة. تمثل هذه الاعتبارات الحد الأدنى الضروري، ولكن قد يرى المشرع ضرورة للتوسع في المتطلبات المفروضة على هذا النوع من النظم. يجب أن تشمل المتطلبات الإضافية كل من اعتبارات حوكمة البيانات، التوثيق، الشفافية، تقييم المخاطر، والإشراف والتدخل البشري.

تقييم الأثر على الحقوق الأساسية

ينبغي أن ينص القانون على مجموعة من الإجراءات التي تضمن توافر تقييم للأثر المحتمل لنظم الذكاء الاصطناعي على الحريات الأساسية وحقوق الإنسان. هذا التقييم هو أحد الأدوات الأساسية لتصنيف نظم الذكاء الاصطناعي من حيث الخطورة وما يستتبعه ذلك من التزامات تضمن حماية الحريات والحقوق. يلزم في هذا الإطار أن تغطي نصوص القانون الاعتبارات التالية:

  • التقييم الشامل للمخاطر: ينبغي أن ينص القانون على إلزام مقدمي الأنظمة بإجراء تقييم مفصل للآثار المحتملة للذكاء الاصطناعي على الحقوق الأساسية. يشمل ذلك كل من الخصوصية وحماية البيانات، والإنصاف، وعدم التمييز، وحرية التعبير، وحرية الوصول إلى المعلومات. كما يلزم النص على أن يشمل هذا التقييم كافة مراحل تصميم وتطوير ونشر واستخدام النظام. كذلك ينبغي النص على الالتزام بتحديث هذا التقييم مع تطور النظام والبيئة التي يعمل بها.
  • التدابير الوقائية: بالنسبة للنظام عالية الخطورة، وبصفة خاصة التي تشكل خطورة محتملة على الحريات والحقوق الأساسية، يجب أن ينص القانون على التزامات إضافية لموردي هذه النظم. تتعلق هذه الالتزامات باتخاذ تدابير للتخفيف من المخاطر، وتوفير إمكانية رقابة إضافية على عمل النظام. كما يشمل ذلك ضمانات لتعزيز الشفافية وتوفير إشراف بشري فعال مع ضمان إمكانية التدخل في حالات التهديد الفعلي أو ظهور انحياز أو خلل في عمل النظام.
  • الشفافية والمساءلة: ينبغي أن يلزم القانون موردي نظم الذكاء الاصطناعي بنشر نتائج تقييم الأثر إضافة إلى إتاحتها للجهات الرقابية. كذلك يجب أن ينص القانون على إجراءات واضحة للرقابة والمتابعة والمحاسبة في حالات عدم الالتزام أو الإهمال المفضي لأضرار.
  • التكامل مع إدارة المخاطر والأزمات: يلزم أن ينص القانون على دمج تقييم أثر نظم الذكاء الاصطناعي على الحقوق الأساسية في منظومة إدارة المخاطر والأزمات. يوفر تقييم الأثر موردًا رئيسيًا للمعلومات لهذه المنظومة، كما يسمح بتحديد مصادر الخطر المحتملة لاستباق نشأة وتطور الأزمات.

متطلبات النظم ذات الطبيعة الخاصة

يلزم أن يختص القانون بعض نظم الذكاء الاصطناعي ذات الطبيعة الخاصة بمجموعة من المتطلبات الملائمة لطبيعتها. يتم تحديد هذه النظم إما لحساسية مجال استخدامها و/أو اتساع نطاق تأثيرها بشكل خاص، أو لحساسية البيانات التي تتعامل معها. 

يمكن للقانون أن ينص على آليات إشراف ومراقبة خاصة لهذه النظم وأن يلزم القائمين على تطويرها واستخدامها بإجراءات أكثر صرامة فيما يتعلق بالتوثيق والإشراف والتدخل البشري، وتقارير تقييم المخاطر وغيرها.



إجراءات الاعتماد والترخيص والتصريح

إجراءات الاعتماد والترخيص والتصريح هي أحد المحاور الرئيسية التي من خلالها يتحقق عدد كبير من أهداف القانون. من خلال هذه الإجراءات يتم استيفاء نظم الذكاء الاصطناعي لمتطلبات القانون المختلفة. ونظرًا لأهمية هذه الإجراءات ينبغي أن تتصف نصوص القانون المتعلقة بها بالدقة الشديدة. كما يجب أن يراعى في هذه النصوص مجموعة من الاعتبارات أهمها:

  • العناية في تحديد أية الأنشطة المتصلة بالذكاء الاصطناعي التي تتطلب إصدار اعتماد طويل المدى، وأيها يتطلب الترخيص بأداء عدد من هذه الأنشطة لمدة قابلة للتجديد، وأيها يتطلب تصريحًا محددًا بمدة أو بأداء مهام بعينها.
  • يمكن لمتطلبات الترخيص أو التصريح أن تكون بالغة التعقيد نظرًا لطبيعة نظم الذكاء الاصطناعي. ومن المتوقع للوثائق المطلوب تقديمها ومراجعتها أن تكون متعددة، وربما ضخمة أيضًا. لذا ينبغي مراعاة ذلك في المدد التي ينص عليها القانون لاستيفاء تقديم الوثائق المطلوبة ولمراجعتها والبت بشأنها، مع موازنة تحقيق الغرض من عملية المراجعة مع مصالح الجهات المتقدمة لنيل الترخيص أو التصريح.
  • يجب مراعاة التبسيط الإجرائي أثناء مراجعة طلبات الحصول على الترخيص أو التصريح حتى يكون على المتقدم لطلبها التعامل مع جهة مركزية واحدة تقوم بتوزيع مهام المراجعة داخليًا.

إجراءات الرقابة والإشراف وتقييم الالتزام بمتطلبات القانون

إجراءات الرقابة والإشراف وتقييم الالتزام بمتطلبات القانون ترتبط بشكل مباشر بعمليات الاعتماد والترخيص والتصريح، حيث تشترك جميعها في معظم أحكام القانون. بمعنى آخر، يحدد القانون المتطلبات التي تُبنى عليها قرارات الاعتماد والترخيص والتصريح، وهي نفسها الأسس التي تعتمد عليها عمليات الرقابة والإشراف لضمان الامتثال للقانون. يتناول هذا القسم الاعتبارات العامة لهذه الإجراءات وأهمها:

  • يجب أن يعمل القانون على أن تكون إجراءات الرقابة والإشراف والتقييم تدخلية فقط بالقدر الضروري لتحقيق الهدف منها، ودون أن تؤدي إلى عرقلة غير مبررة للعمليات الخاضعة لها.
  • يجب أن تتم إجراءات الرقابة والإشراف والتقييم بشكل دوري، بحيث تكون الفترات الفاصلة بينها متوازنة. فلا ينبغي أن تكون قصيرة جدًا فتعيق استمرارية العمليات الخاضعة لها، ولا طويلة إلى حد يؤدي إلى تأخير اكتشاف المشكلات أو الانتهاكات، مما قد يمنع معالجتها في الوقت المناسب.
  • ينبغي أن تكون الإجراءات الرقابية غير الدورية مبررة بضرورة تقتضيها وأن تتدرج في مدى تدخلها في العمليات الخاضعة لها حسب خطورة الأسباب التي استدعت القيام بها.

إجراءات التحقيق وتوقيع العقوبات الإدارية

يلزم أن ينص القانون صراحة وعلى وجه الحصر على الحالات التي تستوجب إجراء تحقيقات إدارية. وينبغي أن يحدد القانون جهة التحقيق وحدود اختصاصها وسلطاتها بما يتوافق مع تمكينها من الوصول إلى المعلومات الضرورية للتحقق من صحة الادعاءات وتحديد المسؤولية. يجب أن يتوافر في إجراءات التحقيق وتوقيع العقوبات الإدارية ما يلي:

  • وضوح الحالات التي تستدعي التحقيق وشروط تحققها بشكل لا يترك مجالًا للبس.
  • مراعاة التناسب في المدد الزمنية وتوقيتات الإجراءات المختلفة بين الإخطار أو الإبلاغ وبدء التحقيق والحصول على المعلومات من الجهات المعنية وانقضاء التحقيق بالوصول إلى قرار نهائي.
  • مراعاة التناسب في العقوبات الإدارية بين الغرامات المالية وتعليق أو إلغاء الاعتمادات أو التراخيص أو تصاريح العمل والتشغيل.
  • إتاحة آليات للتظلم والاستئناف على قرارات جهة التحقيق أثناء إجرائه وعند نهايته.
  • النص على إجراءات إبلاغ المتضررين المحتملين عن أية أضرار متحققة أو محتملة قد لحقت بهم (مثال: اختراق أو تسرب بيانات شخصية)، وإتاحة المعلومات الضرورية التي تمكنهم من السعي لجبر الضرر و/أو الحصول على تعويضات مناسبة.

حالات التجريم الجنائي وتنظيم العقوبات الجنائية

ينبغي أن يتجنب القانون أي ازدواج تشريعي من خلال تجريم أفعال تقع تحت طائلة قوانين قائمة بالفعل. يجب أن يتكامل القانون مع القوانين الأخرى من خلال النص على أية إجراءات خاصة قد تكون ضرورية لإنفاذها، لا سيما فيما يتعلق بالحصول على المعلومات المطلوبة لإثبات الوقائع المشتبه بها المرتبطة باستخدام نظم الذكاء الاصطناعي.

بخلاف ذلك تنحصر مهمة التجريم وترتيب عقوبات جنائية بالأفعال التي تتصل حصرًا بإجراءات القانون والتي لا تخضع للتجريم من خلال أي قانون آخر. من أمثلة ذلك تطوير واستخدام نظم ذكاء اصطناعي غير مقبولة الخطورة، ومن ثم يحظر القانون تطويرها أو استخدامها. يشمل التجريم المقصود هنا تطوير واستخدام هذه الأنظمة حتى في حال لم يثبت ترتب الأضرار المحتملة على ذلك فعليًا.

يلزم أن ينص القانون على سريان العقوبات الجنائية لتطوير واستخدام الأنظمة المحظورة، إضافة إلى أية عقوبات تفرضها قوانين أخرى في حال ترتب أضرار فعلية يخضع تجريمها لهذه القوانين. كما يجب أن ينص القانون على إجراءات إبلاغ الأفراد والجهات التي يثبت تضررها نتيجة للأفعال المجرمة جنائيًا. يضمن ذلك حقوق هؤلاء في الادعاء المدني أو أية إجراءات قانونية أخرى بهدف جبر الضرر الواقع عليهم و/أو تعويضهم عنه.

آليات تقييم الضرر والجبر والتعويض

ينبغي أن تشمل نصوص القانون إنشاء آليات وترتيب إجراءات تتيح ما يلي:

  • آلية للإبلاغ عن التضرر من استخدام نظم الذكاء الاصطناعي (مباشرة أو بواسطة الغير).
  • آليات للتحقيق في البلاغات والشكاوى وإثبات وقوع الضرر.
  • آليات لتقييم الضرر المثبت وقوعه وتقدير إجراءات جبره إن أمكن والتعويض عنه.
  • يلزم ألا تكون أي من إجراءات الإبلاغ معقدة بأي قدر. كما يجب أن يتاح للمُبلِغ الوصول إلى المعلومات التي تثبت وقوع الضرر وأن تلتزم جهة التحقيق بأخذ هذه المعلومات في الاعتبار إضافة إلى ما تحصل عليه بنفسها.
  • ينبغي أن يتاح للشاكي والمشكو في حقه آلية للتظلم من أية قرارات اتخذت في التحقيق في الشكوى أو تحديد إجراءات الجبر والتعويض.

إجراءات دعم إمكانيات التطوير والابتكار والاختبار

يمكن للقانون أن يعمل على دعم إمكانيات التطوير والابتكار والاختبار بعدة سبل منها:

  • التوازن في فرض المتطلبات والالتزامات لصالح الكيانات المحلية الصغيرة والناشئة: يمكن للقانون أن ينص على إعفاء بعض نظم الذكاء الاصطناعي من عدد من المتطلبات الإجرائية مع اشتراط أن تكون هذه النظم مطورة محليًا، وخاصة من قبل كيانات صغيرة أو ناشئة أو تابعة للجامعات ومراكز البحث.
  • توفير خدمات إجراء تقييمات المخاطر: يمكن للقانون النص على أن تتولى هيئات رسمية ذات صلة إعداد تقييمات المخاطر لنظم الذكاء الاصطناعي التي تطورها كيانات صغيرة أو ناشئة أو بحثية.
  • توفير بيئات اختبار: يمكن للقانون النص على أن تنشئ الدولة تسهيلات تقنية تشمل بيئات اختبار لنظم الذكاء الاصطناعي. يتاح استخدام هذه البيئات في مقابل مادي يتناسب مع حجم الكيان القائم على عملية تطوير النظام مع النظر في توفيرها مجانًا للكيانات الناشئة والبحثية.

إجراءات دعم التعاون الدولي

يمكن للقانون أن يعمل على دعم التعاون الدولي في مجال تطوير الذكاء الاصطناعي وتنظيمه من خلال إجراءات منها:

  • ضمان التوافق مع التشريعات الدولية: يمكن للقانون أن يسمح للجهات المحلية المختصة بمنح التراخيص والتصاريح بالاعتراف بالتراخيص والتصاريح الدولية المماثلة لنظم الذكاء الاصطناعي، إذا كانت شروط الحصول عليها متوافقة مع المتطلبات المنصوص عليها في القانون المصري.
  • تسهيلات لمبادرات ومشروعات التعاون الدولي: يمكن أن ينص القانون على تقديم تسهيلات إجرائية لنظم الذكاء الاصطناعي التي يتم تطويرها من خلال مبادرات ومشروعات للتعاون الدولي.
  • التعاون في التحقيقات وإدارة الأزمات: ينبغي أن ينص القانون على آليات للتعاون المتبادل مع جهات خارجية في مجالات التحقيق في التهديدات والانتهاكات التي قد تنشأ عن تطبيقات نظم الذكاء الاصطناعي بشكل عابر للحدود. كذلك يجب أن ينص القانون على إجراءات للتعاون في إدارة الأزمات العابرة للحدود ذات الصلة بنظم الذكاء الاصطناعي.

إجراءات تنظيم استخدام مؤسسات الدولة لنظم الذكاء الاصطناعي

يمكن للقانون أن ينص على إجراءات خاصة تتعلق بنظم الذكاء الاصطناعي التي تطورها أو تنشرها أو تستخدمها مؤسسات رسمية تابعة للدولة. يمكن لهذه الإجراءات أن تنطوي على متطلبات إضافية نظرًا لحساسية الوظائف المؤداة و/أو حساسية البيانات المستخدمة. كما يمكن للإجراءات أن تحيل مهام الرقابة والإشراف إلى جهات تابعة للدولة مع ضمانات للشفافية والحق في الوصول إلى المعلومات.

إجراءات تنظيم استخدام جهات إنفاذ القانون والأجهزة الأمنية لنظم الذكاء الاصطناعي

يجب ألا يمنح القانون أية إعفاءات مفتوحة من متطلباته فيما يخص نظم الذكاء الاصطناعي التي تطورها أو تستخدمها جهات إنفاذ القانون والأجهزة الأمنية. في المقابل، يمكن للقانون أن ينص على إجراءات خاصة تناسب طبيعة هذه النظم والبيانات التي تستخدمها واعتبارات الأمن القومي. كما يجب التشديد على وجود ضمانات كافية يكفلها الإشراف القضائي على هذه الإجراءات وضمانات للحق في الوصول إلى المعلومات للأفراد المعنيين خاصة في حالات الملاحقة الجنائية والمحاكمة.



الهيئة المعنية: الغرض والدور

ينبغي أن ينشئ القانون هيئة معنية الغرض منها الإشراف على تنفيذ أحكامه. يكون من أدوار هذه الهيئة إصدار الاعتمادات والتراخيص والتصاريح التي يتطلبها القانون لتطوير ونشر واستخدام نظم الذكاء الاصطناعي مع ضمان توافر المتطلبات التي ينص عليها القانون. كذلك يكون من أدوارها الإشراف على نظم الذكاء الاصطناعي والمراقبة الدورية لها لضمان استمرارية امتثالها لمتطلبات القانون.

وظائف وسلطات ونطاق عمل الهيئة المعنية

يجب أن ينص القانون صراحة وبوضوح وعلى سبيل الحصر على وظائف الهيئة المعنية وتفاصيل مسؤولياتها تجاه هذه الوظائف. كذلك يلزم أن يحدد القانون السلطات الممنوحة لهذه الهيئة بما يتوافق حصرًا مع متطلبات قيامها بالوظائف المنوطة بها. إضافة إلى ذلك، ينبغي أن ينص القانون بشكل واضح على نطاق ولاية هذه الهيئة مع الحرص على عدم تداخله مع نطاق اختصاص غيرها من الهيئات الرسمية.

هيكل وتشكيل الهيئة المعنية

ينبغي أن يراعي القانون في نصوصه الخاصة بهيكل وتشكيل الهيئة المعنية ملائمتهما للوظائف المنوطة بها وحجم الأعمال المتوقعة لها. كذلك يلزم مراعاة توافر الموارد الفنية والمادية والبشرية اللازمة لقيام الهيئة بدورها. ويراعى في التشكيل أيضًا التناسب بين تمثيل جهات الدولة ومؤسساتها وبين تمثيل جهات الخبرة الفنية وكذلك الأطراف صاحبة المصلحة.

متطلبات الاستقلالية والشفافية والمحاسبة

يجب أن يضمن القانون للهيئة المعنية القدر المناسب من الاستقلالية عن الجهات التي يمكن أن تقتضي وظائفها أن تؤدي دورًا رقابيًا أو إشرافيًا تجاهها. يشمل ذلك الجهات الرسمية ومؤسسات الدولة ومؤسسات القطاع الخاص ذات الصلة. 

ينبغي للقانون أيضًا أن ينص على إجراءات تضمن الشفافية في عمل الهيئة المختصة. كما يجب النص على إلزامها بتوثيق عملها بشكل تفصيلي والاحتفاظ بسجلات تفصيلية وإصدار تقارير دورية تغطي أنشطتها المختلفة. وأخيرًا ينبغي أن ينص القانون بوضوح على مسؤوليات الهيئة تجاه نتائج وآثار قيامها بوظائفها وآليات متابعة أدائها ومحاسبة مسؤوليها.

دور الجهات الاستشارية وإجراءات اعتمادها وتسجيلها

يلزم أن ينظم القانون الأدوار التي يمكن أن تؤديها جهات تقديم الخدمات الفنية والاستشارية ذات الصلة بالذكاء الاصطناعي ونظمه. تتراوح هذه الأدوار بين تقديم الاستشارات الفنية لجهات تطوير ونشر نظم الذكاء الاصطناعي أو تقديم الاستشارات في حالات التحقيق والمحاكمات الجنائية وغير ذلك. ينبغي كذلك أن ينص القانون على إجراءات اعتماد هذه الجهات بما يتناسب مع الأدوار المختلفة لها.


خاتمة

سعت هذا الورقة إلى تقديم معايير شاملة وتفصيلية لتقييم تشريع لتنظيم تكنولوجيا الذكاء الاصطناعي في السياق المصري. اعتمدت الورقة في تحديد وصياغة هذه المعايير على كل من المبادئ الأساسية لحوكمة أخلاقية للذكاء الاصطناعي، والخبرات التشريعية الدولية السابقة، والاستراتيجية الوطنية المصرية للذكاء الاصطناعي.

ناقشت الورقة في قسمها الأول الأطر العامة لتشريع ينظم استخدام الذكاء الاصطناعي في السياق المصري. شمل هذا القسم البيئات ذات الصلة التي سيصدر هذا القانون في إطارها وفلسفة القانون ورؤيته وأهدافه والمقاربات المثلى التي ينبغي أن يتخذها لتحقيق الغرض منه. 

في حين ناقشت الورقة في القسم الثاني منها المعايير العامة لتقييم التشريع، والمبادئ الأساسية التي يتم استخلاص المعايير التفصيلية منها. وأخيرًا قدم القسم الثالث من الورقة معايير تقييم الأحكام التفصيلية للقانون وتشمل الأحكام العامة والأحكام المتعلقة بالمتطلبات والالتزامات والإجراءات المختلفة التي ينبغي أن ينظمها القانون.