
سياق مختصر
شهدت مصر في السنوات الأخيرة توجهًا رسميًا متسارعًا نحو تعزيز حضورها في مجال الذكاء الاصطناعي، سواء من خلال عقد شراكات وزارية مع شركات محلية ودولية، أو عبر استضافة فعاليات إقليمية كبرى مثل قمة (AI Everything الشرق الأوسط وأفريقيا)، المزمع انعقادها في فبراير 2026. وبرزت مؤخرًا أحاديث رسمية وإعلامية متزايدة حول قرب صدور قانون شامل للذكاء الاصطناعي في مصر، يُروَّج له باعتباره خطوة استباقية لمواكبة التحولات العالمية. هذا الزخم، وإن كان يعكس طموحًا للتحديث والتحول الرقمي، إلا أنه يحمل في طياته مخاطر الدفع نحو تشريعات متسرعة تُفصَّل وفقًا للاعتبارات السياسية والاقتصادية، أكثر مما تُبنى على مقاييس حماية الحقوق والحريات.
وقد طرحت مسار ورقة بحثية حول تنظيم الذكاء الاصطناعي، قدمت فيها مبادئ ومعايير للحوكمة الأخلاقية، من بينها الأمن، والشفافية، والشمول، والإنصاف، والإشراف البشري، ومنع المراقبة الجماعية، وتقييم الأثر، وحظر الأسلحة المستقلة. وتؤمن مسار أن هذه المبادئ تشكل إطارًا حقوقيًا يمكن البناء عليه كبديل عملي للتشريع الشامل، بحيث تترجم إلى سياسات قطاعية وتدابير تنظيمية مرنة تتناسب مع سرعة التطور التقني وتعقيداته، وتضمن في الوقت ذاته حماية الحقوق الأساسية للمواطنين.
مقدمة
يمثّل إصدار قانون شامل للذكاء الاصطناعي في مصر في الوقت الراهن مخاطرة جسيمة. فقد ينتهي الأمر إلى نص جامد يعجز عن مواكبة التطور السريع للتقنية، أو إلى وعاء تشريعي فضفاض يفتح المجال أمام إضعاف ضمانات حقوق الإنسان، خصوصًا فيما يتعلق بالخصوصية والمساواة. كما قد يضيف قيودًا بيروقراطية خانقة تعطل الابتكار والإبداع.
وترى “مسار” أن البديل الأمثل هو تبني حزمة أدوات تنظيمية تدريجية وقطاعية، تستجيب لخصوصية كل مجال، لا سيما المجالات الحساسة مثل قطاع الصحة. ويجب أن تُبنى هذه الأدوات على مبادئ حقوق الإنسان التي تحظر الممارسات الأكثر خطورة، مثل انتهاك الحق في الخصوصية أو التمييز على أساس الجنس أو الدين أو العرق أو النوع الاجتماعي. كما ينبغي أن تركّز على تفعيل الركائز القائمة بالفعل، مثل قانون حماية البيانات الشخصية غير المُفعّل، ومراجعة القوانين الأخرى ذات الصلة، كقانون مكافحة جرائم تقنية المعلومات، وقانون تنظيم الصحافة والإعلام، وقانون تنظيم الاتصالات، قبل التفكير في إضافة أي طبقات تشريعية جديدة.
في هذا السياق، تسعى هذه الورقة إلى تقديم رؤية بديلة للتعامل مع تحديات الذكاء الاصطناعي، تهدف إلى حماية الحقوق الأساسية للمواطنين من مخاطر الاستغلال والتمييز، وتحفيز الابتكار المحلي المسؤول بعيدًا عن الأعباء التشريعية الثقيلة. كما تسعى سدّ الفجوات المؤسسية عبر أدوات تنظيمية مرنة وقابلة للتحديث المستمر، بما يضمن استجابة عملية للتطور التقني السريع مع احترام حقوق الإنسان.
لماذا نرفض قانون ذكاء اصطناعي شامل الآن؟
ترى “مسار” أن إصدار قانون شامل للذكاء الاصطناعي في مصر في الوقت الراهن لن يكون أداة فعّالة للحماية والتنظيم، وسيؤدي إلى سلسلة من النتائج السلبية التي تضر بالحقوق والابتكار أكثر مما تفيدهما.
أولًا: تطبيق قانون موحّد على قطاعات شديدة التباين مثل الصحة والتعليم والمال والإعلام يخلق خللًا تنظيميًا جوهريًا. فلكل قطاع طبيعة خاصة، إذ تختلف الأهداف والاستراتيجيات لحوكمة الذكاء الإصطناعي في قطاع الصحة عن ما يتطلبه قطاع الإعلام أو القطاع المالي مثلًا. جمع هذه القطاعات في قانون واحد يؤدي إما إلى أعباء غير متناسبة تُجمّد الابتكار، أو إلى استثناءات واسعة تفرغ النص من مضمونه وتضعف مبدأ المساواة أمام القانون، ما ينعكس مباشرة في إضعاف حماية حقوق الإنسان.
ثانيًا: الطبيعة المتسارعة لتطور الذكاء الاصطناعي تجعل أي قانون يعتمد تعريفات أو معايير ثابتة عرضة للتقادم خلال فترة وجيزة. تقنيات مثل النماذج اللغوية الضخمة أو التوليد متعدد الوسائط تتطور بوتيرة غير مسبوقة، ما يعني أن النصوص الثابتة تتحول بسرعة إلى قيود متجاوزة للواقع. هذا القصور القانوني يفتح الباب لاستغلال الثغرات لتبرير ممارسات ضارة، ويحوّل القانون إلى أداة تقييد للأبحاث أو تضييق على الحقوق بحجة الالتزام بتعريفات قديمة لا تعكس الواقع التقني الجديد.
ثالثًا: يزيد السياق السياسي المصري الحالي من المخاطر. فالدفع الرسمي نحو الشراكات والقمم الدولية يخلق ضغطًا لإصدار تشريع متسرّع يخدم صورة تحديثية أمام الخارج أكثر مما يعكس استجابة حقيقية لحماية الحقوق داخليًا. وتُمرَّر هذه القوانين عادة دون مشاورات مجتمعية جادة أو تقييمات أثر حقوقي، فتتحول إلى نصوص شكلية، أقرب إلى إعلانات سياسية لا إلى ضمانات حقوقية قابلة للتنفيذ، في أفضل الأحوال، أو يكون لها تأثير سلبي في تدهور وضع الحقوق والحريات العامة.
رابعًا: التجربة التشريعية السابقة في مصر تكشف خطورة البيروقراطية والتنظيم المفرط. فالقوانين المتعلقة بالتقنية إما لم تُفعّل، مثل قانون حماية البيانات الشخصية الصادر عام 2020 والمعطّل حتى الآن لعدم صدور اللائحة التنفيذية، أو قوانين استُخدمت لتقييد الحقوق، كما في قانون مكافحة جرائم تقنية المعلومات وقانون تنظيم الصحافة والإعلام. هذه السوابق التشريعية تبيّن أن القوانين الشاملة غالبًا ما تتحول إلى نصوص تُضعف الخصوصية وحرية التعبير والمساواة بدل أن تحميها، وتترك الأفراد بلا أدوات إنفاذ حقيقية.
خامسًا: محاولة وضع قواعد تنظيمية عامة للذكاء الاصطناعي في قانون واحد تؤدي إلى تضارب مع القوانين القائمة (تنظيم الاتصالات، حماية المستهلك، الجرائم الإلكترونية، تنظيم الصحافة والإعلام، حماية الملكية الفكرية، حماية البيانات الشخصية). كما أنها تترك فجوات تشريعية في المجالات التي تتقاطع مع الذكاء الإصطناعي، ما يفتح الباب لانتهاكات مباشرة للحقوق الأساسية، ويعرقل قدرة الأفراد على الطعن أو الحصول على إنصاف قضائي عند وقوع الانتهاكات.
سادسًا: في بيئة سياسية ضعيفة الشفافية والمساءلة، قد يقود وجود قانون موحد للذكاء الإصطناعي إلى مخاطر جسيمة، مثل شرعنة المراقبة الجماعية والتعرف على الوجه واسع النطاق أو استهداف النشطاء والصحفيين تحت ستار الامتثال للقانون. تنتهك هذه الممارسات خصوصية الأفراد وتهدد حرية التجمع والتنقل وتقوّض الثقة العامة في مؤسسات الدولة.
سابعًا: قد يضع القانون الشامل أعباء امتثال ثقيلة على الشركات الناشئة والجامعات ومراكز البحث. من تراخيص مسبقة إلى متطلبات توثيق موسّعة ومراجعات دورية مكلفة، ستُثقل هذه الإجراءات الكيانات الصغيرة وتحدّ من قدرتها على الابتكار، بينما تستفيد منها الشركات الكبرى القادرة على تحمّل التكلفة. يمكن أن يؤدي ذلك إلى إضعاف الابتكار المحلي وزيادة هجرة الكفاءات، ما يعمّق التبعية التكنولوجية بدل أن يعزز القدرات الوطنية.
وعلى ذلك، فإن القانون الشامل للذكاء الاصطناعي في مصر، في السياق الحالي، لن يحقق حماية فعلية للحقوق ولن يوفر يقينًا تنظيميًا، وسيكرر أنماط الفشل السابقة ويُفاقم المخاطر على الخصوصية والمساواة وحرية التعبير والابتكار. وترى مسار أن البديل الأكثر واقعية وفعالية هو بناء حوكمة قطاعية مرنة، تتدرج بحسب المخاطر وتُترجم مبادئ حقوق الإنسان إلى التزامات عملية قابلة للإنفاذ والمساءلة.
تنوع المخاطر وتعدد القطاعات
إنّ مقاربة «مقاس واحد للجميع» في سنّ قانون موحّد للذكاء الاصطناعي ليست خيارًا مناسبًا. فالذكاء الاصطناعي ليس قطاعًا قائمًا بذاته، بل تكنولوجيا عابرة للقطاعات، تتخلّل سلاسل القيمة في مجالات شديدة التباين. ففي قطاع الصحة، يرتبط مباشرة بسلامة المرضى وبياناتهم فائقة الحساسية، وفي الإعلام يعيد تشكيل تدفق المعلومات ويؤثر في توازن الخطاب العام. أما في التعليم، فيتداخل مع أساليب التقييم ويمسّ خصوصية الطلاب، وفي العمل، يعيد رسم علاقات القوة عبر ما يُعرف بـ«الإدارة الخوارزمية».
هذا التفاوت لا يقتصر على اختلاف مجالات الاستخدام، لكن يمتد أيضًا إلى أربع طبقات تنظيمية متشابكة. تبدأ الأولى بدرجة الخطورة وحدود الضرر المحتمل الذي قد يسببه النظام، ثم بطبيعة البيانات المستعملة في تدريب النماذج، وما إذا كانت حساسة أو جرى الحصول عليها بطرق مشروعة. وتضاف إلى ذلك طبيعة الأطراف المعنية ومسارات الإنصاف المتاحة لهم، سواء كانوا مرضى أو عمالًا أو تقنيين أو طلابًا أو صحفيين أو فنانين رقميين أو جمهورًا واسعًا يتلقى المحتوى. وأخيرًا، تلعب بيئات الإنفاذ والهيئات الرقابية المختصة دورًا حاسمًا في تحديد فعالية الرقابة والمساءلة.
محاولة صهر كل هذه الحالات في إطار قانوني واحد تقود عمليًا إلى نتيجتين متناقضتين وكلاهما ضارّ:
الأولى : فرض متطلبات موحّدة صارمة تخنق التجريب والابتكار وتقيّد حقوق الوصول إلى المعرفة والتعبير؛ والثانية: السماح بإعفاءات واسعة من القواعد العامة، سواء لقطاعات بعينها أو لجهات حكومية أو شركات كبرى. تخلق هذه الإعفاءات تفاوتًا في مستوى الحماية، وتُضعف مبدأ المساواة أمام القانون، وتجعل الشفافية مجرّد إجراء شكلي لا يضمن أي رقابة حقيقية. من هنا تتأكد الحاجة إلى معالجة قطاعية دقيقة تُؤسّس التزامات متدرجة بحسب المخاطر، وتربط الواجبات بأدلة تنفيذية قابلة للتدقيق وليست شعارات عامة.
وتوضح الأمثلة التالية أن تنظيم الذكاء الاصطناعي بقانون شامل عام مستحيل دون الإضرار بالحقوق أو خنق الابتكار، وتُبيّن أن الحل الفعّال يكمن في أطر تنظيمية متخصصة تراعي خصوصية كل قطاع:
- الملكية الفكرية: يكشف الذكاء الاصطناعي في هذا المجال عن خطورة تحويل الأبحاث والبيانات الممولة من المال العام أو المنتَجة جماعيًا إلى ملكية خاصة عبر تدريب النماذج عليها. هذا النهج يقوّض مبدأ العلم المفتوح ويكرّس احتكار المعرفة بدل إتاحتها كمنفعة عامة.
- حقوق العمال: تُعيد الخوارزميات تشكيل علاقات القوة في العمل، فتتحكم في الأجور والتقييمات دون شفافية أو مسار للطعن. هنا يلزم فرض كشف مؤشرات الأداء، وضمان حق المراجعة البشرية الإلزامية، وحظر المراقبة المفرطة، مع اشتراط مفاوضة النقابات عند إدخال أنظمة تغيّر شروط العمل.
- التعليم: أدوات الذكاء الاصطناعي قد تحوّل المدارس إلى فضاءات مراقبة تأديبية وتستغل بيانات الطلاب تجاريًا أو إقصاء الطلاب من المجتمعات الفقيرة ومحدودة التعليم. وبالتالي يكون الاحتياج إلى مبادئ تضع سياسات تعليمية تضمن النفاذ المتساوي لأدوات مفتوحة المصدر، وتضع قيودًا صارمة على جمع وتحليل البيانات، وتقرّ بحق الطالب في الاعتراض على القرارات الآلية.
- الإعلام: تتحكم خوارزميات توزيع المحتوى في الوصول إلى المعلومات وتشكيل الخطاب العام. من هذا المنطق، تظهر الحاجة إلى إلزام المنصات بالشفافية في منطق الترتيب، ووسم المحتوى المولّد آليًا، وإتاحة آليات رد وتصحيح سريعة، وحظر التلاعب السلوكي عالي المخاطر، خاصة في السياقات السياسية.
- البيئة: يستهلك الذكاء الاصطناعي كميات هائلة من الطاقة، ويخلّف نفايات إلكترونية ضخمة. وبالتالي، لا تكفي المعالجات العامة، بل يجب فرض تقارير شفافة عن الأثر البيئي، وربط المشتريات الحكومية بمعايير خضراء، وإقرار خطط إلزامية لإدارة دورة حياة الأجهزة.
- الصحة: أكثر القطاعات خطورة، إذ قد يهدد أي خطأ خوارزمي حياة المرضى. وبالتالي، تظهر هنا أولويات مختلفة عن القطاعات الأخرى مثل، إلزام بتقييمات أثر حقوقي وسريرية قبل وبعد النشر، وإشراف بشري فعّال على القرارات الطبية، وحوكمة صارمة للبيانات الصحية، وحظر ممارسات تمس الكرامة، مثل استخدام تقنيات التعرف على الوجه، ووضع آليات وطنية للإبلاغ عن الحوادث الطبية.
البديل : حوكمة مرنة متعددة المستويات
إن نقد مقاربة قانون موحد للذكاء الاصطناعي لا يعني القبول بفراغ تشريعي، بل يستدعي بنية حوكمة تعكس الحقوق كمنطلق والسياسة كضابط. فبدل أن يكون القانون الشامل مظلة عامة تُفرغ من مضمونها، نطرح حوكمة متعددة الطبقات تجعل الحقوق شروطًا مُلزمة لإقرار أو تشغيل أي نظام ذكاء اصطناعي وليست مجرد نصوص شكلية في التشريعات.
هذه البنية تقوم على ثلاث ركائز مترابطة:
- خط أساس مشترك يُشكّل الحد الأدنى الحقوقي غير القابل للتنازل، ويشمل حماية فعّالة للبيانات، وشفافية قابلة للتدقيق، والحق في الاعتراض والطعن، ومحظورات صريحة ضد أكثر الممارسات مساسًا بالكرامة الإنسانية، مثل المراقبة الجماعية، والتعرف على الوجه واسع النطاق، والتنميط الاجتماعي.
- وحدات قطاعية متخصصة تترجم الالتزامات إلى قواعد دقيقة تتماشى مع خصوصية كل مجال. فتشمل مثلًا: حماية المرضى في قطاع الصحة، وضمان الشفافية التحريرية في الإعلام والحرية الأكاديمية في التعليم، إضافةً إلى تحقيق الوصول العادل لجميع الفئات الاقتصادية والاجتماعية.
- تنسيق أفقي يضمن عدم تحوّل كل قطاع إلى جزيرة منفصلة، ويؤسس لتحديث مستمر للقواعد كي تظل ملائمة للتطور التقني وتهديدات حقوق الإنسان الناشئة.
بهذه البنية نرفض ثنائية تشريع شامل جامد أو فراغ تنظيمي، ونبني إطارًا سياسيًا حقوقيًا قادرًا على حماية الناس وتكييف نفسه مع التغير.
تحويل المبادئ إلى قواعد قابلة للإنفاذ
يجب أن يكون المبدأ الحقوقي هنا قاعدة قانونية مُلزمة؛ فلا يُقر أي نظام قبل أن تُفحص ضرورته، وتُعرض بدائله الأقل مساسًا بالحقوق، وتُقاس كلفة الخطأ، خاصة على الفئات الهشّة. وبذلك تصبح حماية الخصوصية، وعدم التمييز، وحرية التعبير بوابات عبور إلزامية، لا مجرد مبادئ يسهُل تجاوزها بقرار إداري.
- المشاركة باعتبارها التزامًا رئيسيًا
القوة السياسية للحوكمة القطاعية تأتي من المشاركة المُلزِمة؛ فالمجتمع المدني، والنقابات، والعمال والمستخدمون ليسوا “شركاء استشاريين”، بل أصحاب سلطة تقريرية. وجودهم في الأغلبية داخل لجان صياغة القواعد شرط جوهري لضمان قانون متوازن، وأي قاعدة تصدر في غيابهم تُعدّ معيبة. هذا الانحياز ضرورة سياسية لضمان أن الحوكمة تعكس مصالح من يتأثرون مباشرة بالتطور التقني، لا مصالح البيروقراطيات أو الشركات الكبرى.
- عدالة النفاذ وتوزيع المخاطر
يرتكز النهج الحقوقي في الحوكمة على التزامات سياسية عملية تسعى إلى تضييق الفجوة بين المركز والأطراف. ويتجسد ذلك من خلال تبنّي أدوات مفتوحة المصدر ومنخفضة التكلفة في مجالات حيوية، مثل التعليم والصحة، وضمان مشاركة إلزامية للنساء والأشخاص ذوي الإعاقة والعمال في مراحل التشاور. كما يشمل صياغة سياسات مكتوبة بلغة واضحة ومبسطة تتيح للمواطن العادي فهمها. ويُقاس النجاح في هذا السياق ليس بعدد النصوص الصادرة، بل بقدرتها الفعلية على تقليص الفوارق وحماية الفئات الأكثر هشاشة.
- مستويات مختلفة للالتزامات حسب حجم المخاطر
لا يُمكن القبول بمسار الترخيص الشامل، لأنه يعيق الابتكار ويعامل القطاعات المتباينة كما لو كانت متطابقة. وبدلًا من ذلك، تقوم الحوكمة القطاعية على مبدأ الالتزامات المتدرجة التي تراعي حجم الأثر والمخاطر. فعلى سبيل المثال، تقتصر الأنظمة منخفضة الأثر على متطلبات التسجيل والإفصاح، بينما تُلزم الأنظمة متوسطة الأثر بمستوى أعلى من الشفافية وإجراء تقييمات دورية للمخاطر. أما الأنظمة عالية الأثر، فتخضع لضوابط صارمة تشمل المراجعة المستقلة، ورسم خطوط حمراء واضحة، وتوفير آليات إيقاف عند الضرورة، إلى جانب ضمان تعويض المتضررين.
- تفكيك الاحتكار ومنع الاستحواذ لضمان المنافسة العادلة
يمثل تطوير أطر لحوكمة الذكاء الاصطناعي ضرورة في ظل خطر استحواذ الدولة أو الشركات الكبرى على مسار التشريع. في هذا السياق، تتحول الحوكمة القطاعية إلى أداة تهدف إلى منع هذا الاستحواذ. ويجب لتحقيق ذلك تخفيف أعباء الامتثال عن الجامعات والشركات الصغيرة، واستخدام المشتريات العامة كوسيلة لإلزام الشركات الكبرى بالشفافية والإنصاف. وبهذه الآلية يُعاد توزيع صنع القرار من المستويات العليا إلى القاعدة، ومن الشركات المحتكرة إلى الفاعلين المحليين.
- التطوير المستمر
تنظر الحوكمة القطاعية إلى القاعدة التشريعية باعتبارها إطارًا قابلًا للتعلم والتطوير المستمر. فهي تتضمن سجلًا علنيًا للحوادث، وتحديثات دورية للمعايير، ومؤشرات أداء لقياس قدرة الدولة على الحماية، بدءًا من سرعة الإبلاغ عن الانتهاكات وصولًا إلى كلفة الامتثال على الفاعلين الصغار. هذه الآليات تجعل الرقابة والمساءلة ممارسة مستمرة وحيوية، وليست مجرد إجراء بيروقراطي شكلي.
وبناءً على ذلك، لا تمثل الحوكمة القطاعية بديلًا تقنيًا فحسب، بل خيارًا سياسيًا وحقوقيًا واجتماعيًا واقتصاديًا يعيد تعريف أسس التنظيم. فهي تجعل من الحقوق – مثل الخصوصية والمساواة والحرية – شروطًا أساسية لتشغيل أي نظام، وتوفر حماية حقيقية ضد الانزلاق نحو تشريعات شكلية أو مقيدة أو ترك المجال مفتوحًا أمام السوق بلا ضوابط.
توصيات: في طريق حوكمة قطاعية مرنة
تهدف هذه الورقة بالأساس إلى التأكيد على رفض إصدار قانون شامل للذكاء الاصطناعي في مصر في الوقت الراهن، والدعوة بدلًا من ذلك إلى تبنّي حوكمة قطاعية مرنة تقوم على أسس حقوقية وسياسية واقتصادية واجتماعية. تقوم هذه الحوكمة على نقل مركز الثقل من التشريع العام الفضفاض إلى إجراءات مشاركة مُلزِمة تضع المجتمع المدني والنقابات والعمال والمستخدمين في موقع الصدارة عند صياغة القواعد وتعديلها ومراقبة إنفاذها. فالعمل على المستوى القطاعي لا يكتسب جدواه إلا إذا كان تشاركيًا ومنفتحًا، قادرًا على حماية الحقوق ومنع الانزلاق إلى تشريع رمزي أو تنظيم مفرط.
يبقى السياق المصري الراهن محكومًا بضعف الشفافية والتضييق على المجتمع المدني. ويجعل هذا الواقع من الآليات المقترحة، في الوقت الحالي، مبادئ معيارية يمكن البدء في تطبيقها تدريجيًا عبر مبادرات المجتمع المدني والنقابات من خلال تقارير ظل أو مشاورات موازية تشكل ضغطًا متراكمًا لإدماجها رسميًا.
لذلك، المطلوب أولًا هو وضع آليات تضمن تمثيل المجتمع المدني والنقابات والفئات المتأثرة مباشرة. يتحقق ذلك عبر قواعد اختيار مقاومة السيطرة المؤسسية، من خلال لجان ترشيح مستقلة ومعايير شفافة لتفادي تضارب المصالح مع إلزامية الإعلان العلني عنها، وفترات عضوية محددة غير قابلة للتجديد الفوري، إلى جانب تمثيل إلزامي للفئات المهمَّشة مثل النساء، وذوي الإعاقة، وعمال المنصات، وسكان المناطق الطرفية.
ثانيًا، تُحوَّل المشاركة إلى التزام قابل للتدقيق عبر ثلاث أدوات رئيسية:
- سجل علني يُدرج فيه كل نظام ذكاء اصطناعي مصنَّف كـ “عالي الخطورة”، مع تصنيف واضح لمستويات الخطورة وتحديد الالتزامات تبعًا لها. القطاعات ذات الأثر الكبير مثل الصحة والتعليم والعمل والإعلام تُخضع لمتطلبات صارمة. بينما يُعامل الاستخدام منخفض الخطورة، مثل التطبيقات المساعدة في المهام اليومية، بمرونة أكبر. يمكن الاسترشاد في ذلك بتجربة “السجل العلني” التي نص عليها الاتحاد الأوروبي ضمن قانون الذكاء الاصطناعي (AI Act).
- نافذة تعليق عامة بمدد معيارية تتيح مراجعة جوهرية، تتبعها مصفوفة ردّ توضّح بالتفصيل كيفية التعامل مع كل تعليق (سواء تم الأخذ به أو رفضه مع بيان السبب)، وهي آلية معمول بها في المفوضية الأوروبية ويمكن تكييفها محليًا عبر النقابات أو منصات مستقلة.
- جلسات استماع معلنة يُدعى إليها ممثلو النقابات والمجتمع المدني والباحثون، وتُوثق محاضرها وتُنشر كاملة، كما هو مطبق في بعض التجارب التشريعية بأمريكا اللاتينية مثل البرازيل.
ولضمان التطبيق العملي، يجب إنشاء منصة إلكترونية رسمية تضم السجل العلني وتتيح تحميل المسودات والتعليقات، مع واجب توليد مصفوفة ردود مفصلة. وإدراكًا لضعف النفاذ الرقمي لبعض الفئات، يجب توفير قنوات بديلة، مثل جلسات استماع ميدانية تُنظمها النقابات أو منظمات المجتمع المدني، لتوسيع المشاركة لتشمل الجماعات الأقل تمثيلًا.
ثالثًا، يُربط التنظيم بمبدأ «لا تأثير بلا تمثيل»، بحيث لا يجوز نشر أي نظام عالي الأثر إلا بعد استيفاء ثلاثة شروط، وضمان أن تكون الفئات المتأثرة جزءًا فعليًا من الرقابة والمساءلة. والشروط هي:
- تقييم أثر على حقوق الإنسان يتضمن شهادات مباشرة من المتأثرين بالنظام، لضمان أن تجاربهم ليست غائبة عن التقدير.
- تقييم أثر متعدد المعايير (حقوقي/سياسي/اقتصادي/اجتماعي) يراجع آلية عمل الخوارزمية ونتائجها وقراراتها في السياق الفعلي.
- ملف شفافية قابل للتدقيق يوضح مصادر البيانات وجودتها وحدود الأداء وسيناريوهات الفشل، بما يمكّن الباحثين والنقابات والمجتمع المدني من محاسبة الجهة المشغّلة.
رابعًا: تُستَخدم المشتريات الحكومية كرافعة؛ فلا تعاقد مع أي مورّد في المرافق العامة إلا إذا التزم بتقديم بطاقات نظام (Model Cards)، وهي وثائق تفصيلية تُلخّص الغرض من النظام، والبيانات التي دُرّب عليها، وأدائه، وحدوده، والمخاطر المحتملة المرتبطة به. ويُضاف إلى ذلك تقارير أداء دورية، ومنح حق تدقيق مستقل للمجتمع المدني والأكاديميا، ووضع خطط واضحة لمعالجة الانحيازات، وآليات شكاوى ملزمة بزمن محدد للرد. كما تُمنح الأولوية للبدائل مفتوحة المصدر وللمورّدين الملتزمين بالشفافية البيئية ومنشأ البيانات.
خامسًا: يتطلب تمكين المجتمع المدني توفير مصادر تمويل مستقلة ومستدامة، تُخصص لدعم الأبحاث الميدانية، والتقاضي الاستراتيجي، وتغطية تكاليف الخبراء والاستشاريين. كما ينبغي تبسيط الصياغات الفنية للنصوص والسياسات بحيث تكون واضحة ومفهومة لعامة المواطنين، بما يضمن مشاركة أوسع.
وفي حال غياب التمويل الرسمي من الدولة، يمكن إطلاق مبادرات أولية بالشراكة مع جهات دولية أو عبر مصادر تمويل مستقلة، على أن تتحول هذه المبادرات لاحقًا إلى التزامات مؤسسية دائمة. وإلى جانب ذلك، يجب إنشاء قناة موحدة ومستقلة لتلقي الشكاوى والتظلمات، تتمتع بسلطة إصدار توصيات ملزمة بشكل مؤقت إلى حين البت النهائي، مما يتيح للمجتمع المدني أداة عملية وفعالة للضغط والمساءلة.
سادسًا: يجب توفير سجلات إلزامية للحوادث الخوارزمية، وتصنيف للخطورة بأطر زمنية واضحة للإبلاغ، ومراجعات دورية علنية تقاس بها جودة الاستجابة. ويُمنح المجتمع المدني والنقابات حق التقاضي نيابةً عن المتضررين، مع توفير حماية للمبلغين عن المخالفات. حتى لو غاب الاعتراف الرسمي، يمكن لهذه الممارسات أن تبدأ كتقارير ظل، لتتحول إلى أداة ضغط متواصلة.
سابعًا: يُحدَّد مستوى المشاركة حسب المخاطر؛ كلما ارتفع الأثر على الحقوق، زادت متطلبات المشاركة، بما يشمل إشراك أصحاب المصلحة منذ مرحلة التصميم. المشاركة هنا تمثل ضمانة سياسية وعملية ضد تكرار تجارب القوانين السابقة التي وُضعت بمعزل عن المجتمع المدني، مثل قانون الجريمة الإلكترونية أو قانون الصحافة والإعلام، والتي أدت إلى تضييق الحريات وتقييد المجال العام.
إن خيار الحوكمة القطاعية يمثل البديل الواقعي عن القانون الشامل، لأنه يخلق إطارًا مرنًا من أسفل إلى أعلى، يقيد التعسف، ويمنح الفئات المتأثرة سلطة حقيقية على دورة حياة الأنظمة، محولًا مبادئ حقوق الإنسان إلى التزامات قابلة للإنفاذ والمساءلة.
خاتمة
إن الذكاء الاصطناعي لا يواجهنا كساحة تقنية محايدة، بل كقضية اجتماعية وحقوقية وسياسية واقتصادية متشابكة، تُعيد صياغة علاقتنا بالعمل والمعرفة والحقوق الأساسية. ولا يمكن احتواء هذه التحديات عبر قانون شامل يُصاغ على عجل، فيعيد إنتاج تجربة إقرار القوانين السابقة في المجالات المرتبطة بالتقنية. لقد أوضحت هذه الورقة أن مقاربة «مقاس واحد يناسب الجميع» غير عملية، وتحمل مخاطر مباشرة، مثل تقييد الابتكار المحلي، وإضعاف الضمانات الدستورية، وفتح الباب أمام شرعنة المراقبة والتمييز في بيئة سياسية محدودة المشاركة.
البديل الذي نقترحه هو بناء هادف لحوكمة قطاعية مرنة، تُعالج كل مجال بحسب مخاطره وخصوصياته، وتضع الحقوق الأساسية في صلب التنظيم باعتبارها شرطًا مسبقًا لأي قاعدة. هذه الحوكمة لا تكتسب معناها إلا إذا كانت تشاركية فعلًا، تمنح المجتمع المدني والنقابات والفئات المتأثرة موقع الصدارة، وتربط شرعية أي سياسة أو لائحة بمدى شفافية ومصداقية المشاركة فيها. وهي أيضًا حوكمة ديناميكية، قادرة على التكيف عبر أدلة واقعية متجددة، وسجلات عامة، ومصفوفات ردود، وتقييمات أثر حقوقية تجعل المبادئ الحقوقية التزامات عملية قابلة للإنفاذ والمساءلة.
ما تحتاجه مصر ليس نصًا جامدًا جديدًا، بل تفعيل الركائز القائمة مثل قانون حماية البيانات، وسد الفجوات التشريعية في البيئة الرقمية، وفتح المجال أمام ممارسات تنظيمية متدرجة تمنع التعسف وتبني الثقة. وحدها هذه المقاربة قادرة على الموازنة بين حماية الحقوق وتعزيز الابتكار، وضمان أن يظل الذكاء الاصطناعي أداة في خدمة الإنسان.