
مقدمة
التطور المتسارع لتكنولوجيا الذكاء الاصطناعي أصبح أحد حقائق حياتنا اليومية إلى حد أنه لم يعد يدهش الكثيرين، على الأقل ليس بقدر هذه الدهشة التي واكبت صدور تطبيق المحادثة (ChatGPT) في نهاية عام 2022. ومع الخفوت التدريجي لوهج اقتحام هذه التكنولوجيا لحياة ملايين البشر، وتمكنهم من استخدامها بشكل مباشر لأول مرة، أصبح بالإمكان الحديث بشكل أكثر واقعية عن تطلعات المستقبل وكذلك عن محاذيره وتهديداته.
واقع الحال أن تطبيقات الذكاء الاصطناعي كانت حاضرة بالفعل في حياة ملايين البشر منذ سنوات. وبعض هذه التطبيقات كانت له آثار مباشرة على حياة ومصائر عشرات الآلاف منهم. تطبيقات التوظيف، والبت في استحقاق الإعانات الاجتماعية، وفي التأهل لإطلاق السراح المبكر من السجون؛ هذه فقط أمثلة لتطبيقات استُخدمت في صنع قرارات بالغة الأهمية في حياة من كانوا عرضة لها، قبل ظهور(ChatGPT) والتطبيقات الشبيهة به بسنوات عدة.
قبل ظهور(ChatGPT) أيضًا اختارت خوارزميات الذكاء الاصطناعي في منصات التواصل الاجتماعي لمستخدميها أي محتوى يرونه وأي أشخاص أو صفحات ترشح لهم لمتابعتها. وكذلك استُخدمت نماذج الذكاء الاصطناعي ليس فقط في الدعاية الانتخابية ولكن حتى في توجيه الرأي العام للتأثير على نتائج هذه الانتخابات. اتضح من ذلك أن هذه التكنولوجيا بإمكانها التأثير بعمق في الواقع السياسي، وأنها قد تمثل في أكثر السيناريوهات تشاؤمًا تهديدًا وجوديًا للديمقراطية ذاتها.
منذ عام 2016، شرعت مؤسسات الاتحاد الأوروبي في إعداد أول تشريع تنظيمي لحوكمة تكنولوجيا الذكاء الاصطناعي. واستغرقت العملية البطيئة والمتعثرة سنوات عدة. ظهر القانون الأوروبي أخيرًا في عام 2023، في خضم الضجة التي أثارها صدور ChatGPT، فبدا، رغم كل الجهد المبذول فيه، متقادمًا وقد تجاوزته التطورات الجديدة بالفعل.
تهديدات ومحاذير استخدام تكنولوجيا الذكاء الاصطناعي تكاد تشمل جميع مجالات الحياة اليومية للمجتمعات. من تهديد الوظائف إلى التهديد البيئي، ومن تهديد الأمن القومي إلى تهديد الحق في الخصوصية والحق في حرية التعبير. ولكن يظل ثمة مكان متميز لتهديد هذه التكنولوجيا للديمقراطية وعملية صنع القرار الديمقراطي. فاستلاب إرادة الشعوب وحقها في إدارة شؤونها يعني غياب إمكانية مواجهة تهديدات تكنولوجيا الذكاء الاصطناعي في أي مجال آخر.
مشهد العلاقة بين الاستخدامات المتعددة لتكنولوجيا الذكاء الاصطناعي وبين عملية صنع القرار الديمقراطي بالغ الاتساع والتعقيد أيضًا. لذلك، تبدأ هذه الورقة بمناقشة العلاقة القديمة والممتدة بين استخدام المعلومات في عمليات صنع القرار وبين تعبير هذه العملية عن الإرادة الشعبية، والتي ترسم خطًا تتقاطع معه العديد من استخدامات الذكاء الاصطناعي.
كما تناقش الورقة مسارات صنع القرار الديمقراطي والتي يوفر كل منها بدوره مزيد من نقاط التقاطع مع استخدامات الذكاء الاصطناعي. وأخيرًا تناقش الورقة في نفس القسم الصور المختلفة التي يمكن تصنيف تكنولوجيات الذكاء الاصطناعي حسبها، وتستعرض مجالات تقاطع كل منها مع عملية صنع القرار الديمقراطي.
بالإضافة إلى ذلك، تتناول الورقة التطلعات والمخاوف التي يثيرها استخدام تكنولوجيا الذكاء الاصطناعي المباشر في عملية صنع القرار الديمقراطي وآثارها غير المباشرة عليه. وتستكشف أيضًا إمكانيات دعم تكنولوجيا الذكاء الاصطناعي لمسارات أكثر ديمقراطية لصنع القرار، وتقدم رؤية لمستقبل أفضل لعملية صنع القرار الديمقراطي، وتطرح الشروط الضرورية حتى يمكن لهذه الرؤية أن تتحقق.
صنع القرار الديمقراطي: بين المعلومات والإرادة الشعبية
تعتمد أية عملية لصنع القرار على المعلومات من حيث توفرها وشمولها ومصداقيتها وإمكانية الاعتماد على نتائج تحليلها. في المقابل، تختلف عملية صنع القرار الديمقراطي عن غيرها في أنها يشترط فيها أن تكون معبرة عن الإرادة الشعبية. الاعتماد على جمع أكبر قدر ممكن من المعلومات في ممارسة الحكم هو أحد الخصائص الرئيسية للدولة الحديثة التي تميزها عن أنماط الحكم السابقة عليها. ومع تعقد المجتمعات الحديثة ونمو البيروقراطية الحكومية تزايد حجم البيانات التي ينبغي جمعها وتحليلها لاتخاذ القرارات المتعلقة بالحكم. بالتزامن مع ذلك، تزايدات الحاجة إلى المعرفة والخبرة المتخصصة للتعامل مع هذه البيانات.
الاعتماد المتزايد على المتخصصين في الحصول على المعلومات التي تُبنى عليها القرارات السياسية أنتج ما يسمى بالتكنوقراطية أو حكم الخبراء. أحد معاني هذه الظاهرة هو انتزاع سلطة اتخاذ القرار، في جوانب رئيسية من ممارسة الحكم، من أيدي السياسيين، سواء كانوا يمثلون الشعوب أو كانوا يمارسون حكمًا سلطويًا غير ديمقراطي. هذه السلطة أصبحت بدلًا من ذلك في أيدي مؤسسات بيروقراطية قومية أو دولية.
من أمثلة هذه المؤسسات التي تمتلك اليوم نفوذًا سياسيًا كبيرًا وكالات المخابرات والأجهزة الأمنية والبنوك المركزية في الدول المختلفة، وكذلك مؤسسات دولية مثل صندوق النقد الدولي. في المجمل، من يديرون هذه المؤسسات ليسوا منتخبين من قبل الشعوب التي يتخذون قرارات بالغة التأثير في حياتهم اليومية. فهم يمتلكون سلطة اتخاذ هذه القرارات بناء على خبراتهم المتخصصة والتي تتمثل في النهاية في احتكارهم لمهارات استخدام المعلومات في مجالات تخصصهم.
بخلاف أية تكنولوجيا سابقة للتعامل مع البيانات والمعلومات تفتح تكنولوجيا الذكاء الاصطناعي الباب أمام فصل جديد ومختلف في العلاقة بين المعلومات وبين عملية صنع القرار. فلأول مرة يصبح بالإمكان استبدال الخبرة المتخصصة كوسيط في هذه العلاقة. والبديل في هذه الحالة يمكن نظريًا ألا يحتكر دوره فيها. فتكتولوجيا الذكاء الاصطناعي هي أداة يمكن لأي أحد استخدامها. ويعني ذلك أن أي طرف معني يمكنه أن يستخدم هذه الأداة لجمع البيانات ذات الصلة بقضية بعينها. كما يمكنه تحليلها للخروج بمعلومات توضح العوامل المختلفة المؤثرة في هذه القضية، ثم الخروج بالبدائل المختلفة للقرار الذي يمكن اتخاذه بخصوصها وأثر كل بديل من هذه البدائل.
لا مجال للشك في أن نظم ونماذج الذكاء الاصطناعي ستلعب بشكل متزايد دور الوسيط بين البيانات والمعلومات وبين عمليات صنع القرار السياسي في المستقبل. ما يجعل هذا أمرًا محسومًا هو أن هذه النظم والنماذج ستؤدي دور الوسيط بكفاءة أكبر وبتكلفة أقل من البديل البشري.
سيعتمد أثر ذلك على مدى ديمقراطية عمليات صنع القرار على عوامل عدة. أبرز هذه العوامل هو من سيمتلك سلطة القرارات التصميمية لنظم الذكاء الاصطناعي وسلطة توجيه مسار تطويرها، وإلى أي حد سيكون الوصول إلى هذه النظم والنماذج متاحًا بشكل متساو ودون تمييز. وحقيقة أن هذه العوامل لا تزال غير محسومة اليوم تعني أن المستقبل مفتوح على بدائل عدة بعضها سلبي وبعضها الآخر إيجابي.
مسارات صنع القرار الديمقراطي
بخلاف تجاذب عملية صنع القرار الديمقراطي ما بين المعلومات والإرادة الشعبية تمر هذه العملية بمسارات مختلفة تُحدد في النهاية الأطراف المشتركة فيها، ومدى تعبيرها عن الإرادة الشعبية. تفتح هذه المسارات نقاط تدخل مختلفة يمكن لتكنولوجيا الذكاء الاصطناعي أن تلعب أدوارًا عدة فيها. يستطلع هذا القسم مسارات صنع القرار الديمقراطي وكيف يمكن للذكاء الاصطناعي أن يُستخدم للتدخل فيها.
المسار الرئيسي في الواقع الحالي للنظم الديمقراطية لعملية صنع القرار يتمثل في أن ينتخب المواطنون ممثلين لهم في مواقع السلطتين التشريعية والتنفيذية، ويمثل هذا تفويضًا لهؤلاء بصنع القرار نيابة عن المواطنين. يفتح هذا المسار نقاطًا كثيرة للتقاطع مع استخدامات مختلفة لنظم ونماذج الذكاء الاصطناعي.
يمكن استخدام هذه النظم والنماذج للعب أدوار عدة في مجريات العملية الانتخابية التي يتحدد على أساسها من سيكون في أيديهم صنع القرار فعليًا. وتشمل هذه الأدوار استخدام المرشحين لأدوات الذكاء الاصطناعي لبناء أجنداتهم الانتخابية وللتوصل للسياسات التي سيطرحوها على الناخبين، وكذلك لتخطيط وإدارة حملاتهم الانتخابية وإنتاج المحتوى الدعائي لها.
يمكن أيضًا استخدام أدوات الذكاء الاصطناعي للتأثير في نتائج العملية الانتخابية من خلال العمل على توجيه الناخبين نحو التصويت لمرشحين بأعينهم أو لسياسات محددة. في المقابل، يمكن استخدام أدوات الذكاء الاصطناعي في عمليات الإشراف على العملية الانتخابية وتوفير ضمانات عدم التلاعب بها.
على جانب آخر، يمكن استخدام أدوات الذكاء الاصطناعي في عملية صنع القرار ذاتها في مراحل جمع البيانات وتحليلها والوصول إلى بدائل السياسات بناء على العوامل المختلفة المؤثرة في حظوظ نجاحها وفعاليتها، وعلى الآثار والنتائج المتوقعة لها.
المسار الثاني لعملية صنع القرار يتمثل في سعي المؤسسات والمنظمات والجماعات الممثلة لمصالح فئوية أو لتوجهات وأيديولوجيات وأهداف مختلفة للتأثير على هذه العملية باستخدام وسائل ضغط مختلفة. يمكن لهؤلاء استخدام أدوات الذكاء الاصطناعي في بناء السياسات التي يسعون لدفعها على أساس معلومات واقعية أو لتحديد مواقفهم من السياسات المقترحة من أطراف أخرى بناء على مدى تحقيقها لمصالحهم أو أهدافهم.
يتمثل المسار الثالث في الضغوط الشعبية المباشرة لمحاولة التأثير في عملية صنع القرار فيما يخص قضية ما تحظى باهتمام الرأي العام. قد تعتمد هذه الضغوط على آليات تقليدية للتعبير عن الرأي، مثل التظاهرات والاعتصامات والإضرابات. كما أنها تعبر عن نفسها بشكل متزايد من خلال أدوات التواصل الرقمية منذ انتشار استخدام الإنترنت، وبصفة خاصة بعد ظهور منصات التواصل الاجتماعي.
تلعب خوارزميات منصات التواصل الاجتماعي المعتمدة على تكنولوجيا الذكاء الاجتماعي دورًا مؤثرًا في انتشار واتساع نطاق تأثير التوجهات السائدة للرأي العام. كما تُستخدم نماذج الذكاء الاصطناعي بشكل متزايد في صناعة المحتوى المستخدّم للتعبير عن المواقف من القضايا المختلفة ولاجتذاب مزيد من الداعمين لها، سواء اعتمد هذا المحتوى على المعلومات أو على مخاطبة المشاعر والانحيازات المختلفة.
الذكاء الاصطناعي ومحدداته
الذكاء الاصطناعي هو في الحقيقة مصطلح لا يشير إلى تكنولوجيا واحدة بعينها ولكن إلى عائلة من التكنولوجيات المتنوعة. يتناول هذا القسم الصور المختلفة التي يمكن أن تتخذها تكنولوجيات الذكاء الاصطناعي ومجالات استخدام كل منها في عملية صنع القرار الديمقراطي.
نظم التحليل التنبؤي
تعمل نماذج التحليل التنبؤي عادة على حزم البيانات بالغة الضخامة. وتمثل البيانات التي تعمل عليها العوامل المختلفة المؤثرة في عملية ما. من خلال تحليلها لهذه البيانات تهدف نظم الذكاء الاصطناعي من هذا النوع إلى التنبؤ بالنتائج المتوقعة للعملية التي تدرسها. يمكن استخدام نظم التحليل التنبؤي لاستكشاف مدى إمكانية نجاح قرار بعينه أو سياسة ما في تحقيق أهدافهم. كما يمكن استخدامها للتنبؤ بالنتائج والآثار المترتبة على اتخاذ قرار أو انتهاج سياسة ما.
يعتمد تقاطع استخدام هذه النظم مع عملية صنع القرار الديمقراطي على من يستخدمها ولأي هدف. يمكن للأفراد والمؤسسات في مواقع اتخاذ القرار استخدامها للتوصل إلى القرارات والسياسات ذات الحظوظ الأفضل في تحقيق أهداف بعينها. كما يمكنهم استخدامها لتحديد أي آثار سلبية محتملة لقراراتهم أو سياساتهم، وذلك لإعداد خطط للتعامل مع هذه النتائج أو الآثار.
من جهة أخرى، إذا أُتيح للجهات المعنية في عملية صنع القرار الديمقراطي – كالمواطنين والسياسيين الحزبيين، ومنظمات المصالح الفئوية، ومنظمات المجتمع المدني، ووسائل الإعلام المختلفة – الوصول إلى نظم التحليل التنبؤي والمعلومات الضرورية، فبإمكانهم تحديد مواقفهم من القرارات والسياسات المتنوعة بناءً على تأثيراتها المتوقعة عليهم وعلى من يمثلونهم. كما يمكنهم أداء دور توعوي من خلال شرح هذه النتائج للجمهور العام.
نظم معالجة اللغة الطبيعية NLP
المقصود باللغة الطبيعية هنا اللغة المحكية التي يستخدمها البشر بصفة يومية في محادثاتهم الشفاهية وكتاباتهم، وذلك في مقابل اللغات الاصطناعية، مثل تلك المستخدمة في تطوير البرمجيات. تستخدم نظم معالجة اللغة الطبيعية لفهم وإنتاج النصوص المكتوبة أو المحادثات المسموعة. وتمثل هذه النظم همزة وصل مناسبة بين نظم الذكاء الاصطناعي المختلفة وبين الأشخاص العاديين الذين يمكنهم التعبير عن أنفسهم بسهولة باستخدام اللغة المحكية والمكتوبة. كما يمكنهم فهم ما يقدّم إليهم بواسطة هذه اللغة، ولذلك تعد ربوتات المحادثة من أبرز تطبيقات نظم معالجة اللغة الطبيعية.
يمكن استخدام نظم معالجة اللغة الطبيعية للكشف عن توجهات الرأي العام من خلال تحليل استجابات عينات تمثيلية لاستبيانات الرأي العام حول قضايا محددة. كما يمكنها تحليل منشورات مستخدمي منصات التواصل الاجتماعي لتحديد القضايا الأكثر اهتمامًا للمواطنين ومواقفهم الرئيسية تجاهها.
بالإضافة إلى ذلك، يمكن لتطبيقات المحادثة أن تجيب تساؤلات المواطنين حول قضايا الشأن العام وحول السياسات التي تتبعها الحكومات بخصوصها، وأن تقدم لهم فكرة مبسطة عن التشريعات القانونية سواء السارية أو المقترحة. كذلك يمكن لهذه النظم أن تكون واجهة لنماذج التحليل التنبؤي فتقدم للمواطنين إيضاحات للأثر المتوقع للسياسات العامة أو التشريعات على حياتهم.
نظم أتمتة صنع القرار
تُستخدم نظم الذكاء الاصطناعي بالفعل منذ سنوات وبشكل متزايد في عمليات صنع القرار على مقياس صغير. على سبيل المثال، تستخدم عديد من المؤسسات الخاصة والعامة اليوم نظم الذكاء الاصطناعي لاتخاذ قرارات التوظيف والجزاءات والترقيات. كذلك تستخدم بعض الحكومات نظم الذكاء الاصطناعي للبت في طلبات الهجرة واللجوء، وللبت في قرارات الإفراج المبكر عن السجناء. وليس ثمة ما يمنع تقنيًا من تطوير نماذج للذكاء الاصطناعي متخصصة في صنع قرارات على مقياس أكبر، بما في ذلك القرارات السياسية.
يمكن للبعض الدفاع عن الحاجة إلى استخدام هذه النظم على مقياس كبير فقط في عمليات صنع القرار في إدارة الأزمات ومواجهة المخاطر والتهديدات الطارئة. بصفة خاصة، يمكن استخدام هذه النظم في مجال مواجهة الهجمات الإلكترونية واسعة النطاق والتي يمكن أن تستهدف نظم إدارة المرافق الحيوية للدولة ومنشئاتها الأكثر حساسية. نظرًا لأن الهجمات الإلكترونية قد تتم بشكل مفاجئ وتتطور بسرعة كبيرة فإن مواجهتها تستلزم الكشف المبكر لها والاستجابة الفورية لمواجهتها.
في المقابل، يدافع البعض الآخر عن الحاجة إلى استخدام هذه النظم على نطاق أوسع وفي شتى مجالات صنع القرار السياسي بدعوى أن ذلك يضمن حيادية عملية صنع القرار وتعلقها فقط بتحقيق الصالح العام. لكن يتجاهل هذا الرأي تحيز بعض نماذج الذكاء الاصطناعي نتيجة لتحيز البيانات التي دُربت عليها، سواء بشكل مقصود أو غير مقصود.
نظم الذكاء الاصطناعي التوليدي Generative AI
يندرج تحت هذه النظم نماذج الذكاء الاصطناعي التي تستخدم تكنولوجيا معالجة اللغة لتوليد نصوص باللغة المحكية. تطورت تطبيقات هذه النماذج والنظم واتسعت بشكل هائل خلال السنوات الماضية. فيمكن لنماذج الذكاء الاصطناعي التوليدي اليوم أن تنتج محتوى يستغل جميع الوسائط التي يتفاعل معها البشر.
بالإضافة إلى النصوص المقروءة، تنتج هذه النماذج الصور الفوتوغرافية والمقاطع الصوتية ومقاطع الفيديو، كما تنتج أيضًا أكواد البرمجيات. ويتميز المحتوى الذي تنتجه هذه النماذج بأنه يقترب بشكل متزايد من المحتوى الذي ينتجه البشر إلى الحد الذي لا يمكن معه في كثير من الحالات التمييز بين محتوى مصطنع تمامًا وبين محتوى منتج بشكل تقليدي.
على عكس نماذج ونظم أتمتة صنع القرار، التي يمكن نظريًا على الأقل أن تتجاوز الإرادة البشرية بشكل كامل، فنظم الذكاء الاصطناعي التوليدي يمكنها التأثير على الإرادة البشرية من خلال المحتوى الذي تنتجه. بصفة خاصة، عندما تقترن هذه النماذج مع نظم التحليل التنبؤي التي يمكنها تحديد استجابة الأفراد ذوي صفات بعينها لمحتوى بعينه، يمكن استخدامها لتوليد محتوى مصمم خصيصًا للحصول على استجابات محددة مسبقًا من الأفراد المتعرضين له.
يطرح هذا النوع من نظم الذكاء الاصطناعي سؤالًا تصعب الإجابة عليه وهو: متى يمكن الحكم على تأثير رسائل بعينها بأنها سالبة للإرادة؟ في نهاية المطاف، تستخدم الرسائل السياسية منذ القدم أساليب مختلفة للتأثير على وعي الجماهير، سواء بمخاطبة عقولهم أو باستفزاز أو استغلال مشاعرهم وانحيازاتهم.
هل تتعلق ديمقراطية صنع قرار ما بمدى مشاركة الجماهير فيه، أم تتجاوز ذلك إلى كيفية تشكل إرادة هذه الجماهير؟ حتى التوافق على رفض ممارسات، مثل الزيف العميق Deepfake، ليس مضمونًا. فهل مجرد اختلاق رسالة يعني أنها زائفة؟ أم يلزم أيضًا أن يكون محتواها كاذبا أي مخالفا للواقع؟
إمكانيات دعم مسارات أكثر ديمقراطية لصنع القرار
دعم الحوار الديمقراطي القائم على معرفة أفضل بالواقع
الحوار الديمقراطي هو المنفتح للجميع على قدم المساواة ودون تمييز. ويمكن لمثل هذا الحوار أن يكون أداة مثالية لصنع القرار الديمقراطي بشرط ضمان فعاليته. معوقات هذه الفعالية تتمثل عادة في الاستقطاب الشديد وغياب أية أرضية مشتركة بين الأطراف المختلفة. يؤدي ذلك في بعض الأحيان إلى استحالة التوافق على حلول تحقق مصالح الجميع بشكل متوازن ومقابل أن يقدم كل طرف قدرًا من التنازلات المقبولة. لذلك، يعد توافر معلومات موثوقة حول الخيارات الواقعية المتاحة ومدى تحقيق كل منها لمصالح الأطراف المختلفة في المدى القريب والبعيد أحد السبل لتجاوز معوقات فعالية الحوار الديمقراطي.
يمكن لنظم ونماذج الذكاء الاصطناعي أن تكون مصدرًا للمعلومات التي ينبني عليها حوار ديمقراطي فعال. يشترط لتحقيق ذلك أن تكون هذه النظم والنماذج متاحة للجميع، وأن تتمتع بالشفافية، وأن تكون خالية من الانحيازات، وأن تكون موثوقة من حيث دقتها وشمولها. ينتج عن ذلك ثقة فيما تقدمه هذه النظم والنماذج من معلومات، مما يساعد الأطراف المختلفة في بناء مواقف تعتمد على هذه المعلومات وتساهم في توفير أرضية مشتركة لحوار ديمقراطي فعال.
دعم العملية الانتخابية لتعبير أفضل عن مصالح فئات المجتمع في عملية صنع القرار
يمكن استخدام نظم ونماذج الذكاء الاصطناعي بصور متعددة لدعم الاستحقاقات الانتخابية بمختلف أنواعها ومستوياتها. فبالإمكان استخدامها لبناء برامج انتخابية أكثر واقعية وأكثر تحقيقًا لمصالح أكبر عدد من فئات المجتمع. كذلك يمكن استخدامها في تنظيم حملات انتخابية تقدم هذه البرامج بأفضل طريقة ممكنة وبحيث تتوجه إلى الفئات المختلفة للمجتمع بالأسلوب الأمثل لمخاطبة كل منها.
على جانب آخر، يمكن استخدام نظم ونماذج الذكاء الاصطناعي لتقييم مدى واقعية البرامج الانتخابية للأحزاب أو المرشحين، ولمعرفة مدى تحقيق السياسات المقترحة في هذه البرامج لمصالح فئات بعينها من الناخبين. يسمح ذلك للناخبين باختيار من يدلون لهم بأصواتهم على أساس ما يحقق تطلعاتهم ويستجيب لمطالبهم بأفضل شكل ممكن.
بالإضافة إلى ذلك، يمكن استخدام الذكاء الاصطناعي لتصميم أدوات أكثر موثوقية للإشراف على مراحل الانتخابات المختلفة. يمكن لهذه الأدوات كشف أية انتهاكات لقوانين وقواعد الانتخابات النزيهة، بما في ذلك سبل التلاعب في تمويل الحملات الانتخابية ومخالفات الدعاية الانتخابية وطرق تزوير نتائج الانتخابات.
في المحصلة، يمكن لنظم الذكاء الاصطناعي أن تلعب أدوارًا مختلفة تؤدي معًا إلى ضمان أن تكون العملية الانتخابية سبيلًا لوصول ممثلين حقيقيين لفئات المجتمع المختلفة إلى مواقع صنع القرار. يجعل ذلك العملية الانتخابية وسيلة لمشاركة شعبية أكثر فعالية في عملية صنع القرار.
دعم إمكانية التعرف على توجهات الرأي العام والاستجابة لها
من العوائق التقليدية لتوسيع المشاركة المباشرة للمواطنين في عمليات صنع القرار قصور الأدوات المتاحة في السابق عن جمع وتحليل آراء ملايين المواطنين في القضايا التفصيلية التي تمس حياتهم. فعلى سبيل المثال، يستحيل عمليًا بالسبل المتاحة حتى وقت قريب إجراء استفتاء على كل قرار ينبغي اتخاذه في شأن من الشؤون العامة.
ولكن الواقع أيضًا أكثر تعقيدًا من أن يكون بالإمكان اختزال أغلب قضايا الشأن العام في سؤال يقبل الإجابة بنعم أو لا. وما يتطلبه الأمر هو تمكين المواطنين من التعبير عن آرائهم في القضايا التي تعنيهم وتمس حياتهم بعبارات غير مقيدة بخيارات محددة سلفًا. استخلاص توجيهات محددة للسياسات ولصنع القرار من ملايين الاستجابات المصاغة بشكل حر كان حتى وقت قريب أمرًا شبه مستحيل. ويأتي هنا دور تكنولوجيا الذكاء الاصطناعي، فنظم ونماذج هذه التكنولوجيا قادرة تحديدًا على تحقيق ذلك دون إهدار الوقت أو الموارد البشرية.
يمكن استخدام نماذج الذكاء الاصطناعي المتخصصة في معالجة وتحليل البيانات الضخمة لبناء أدوات لتلقي آراء المواطنين في قضايا الشأن العام. هذه الأدوات يمكن أن تستهدف المواطنين على المستوى المحلي والقومي وأن تخلص من تحليلها لآرائهم إلى السياسات التي تمثل بأكبر دقة ممكنة أولوياتهم واحتياجاتهم العاجلة وتطلعاتهم المستقبلية.
مثل هذه الأدوات قد تساعد في دعم عملية صنع قرار أكثر ديمقراطية من إتاحة التصويت المباشر للمواطنين على خيارات محددة سلفًا. ففي كثير من الأحيان لا يمكن للمواطنين أن يتعرفوا على مدى ملاءمة قرار ما لأولوياتهم وتطلعاتهم، ولكنهم قادرون دائمًا على التعبير عن هذه الأولويات والتطلعات بلغتهم الخاصة.
مخاوف سوء وإساءة استخدام الذكاء الاصطناعي
حدود الخطأ وغياب أدوات توقع حدوثه أو قياس حجمه
ليس ثمة عملية خالية من أي احتمال لوقوع أخطاء. وفي الواقع العملي ثمة دائمًا هامش ما مقبول للخطأ في أية عملية. يحدّد هذا الهامش على أساس الحد الأقصى من الخطأ الذي لا يؤدي إلى اتساق العملية مع أهدافها. ولكن في حال نماذج الذكاء الاصطناعي ثمة صعوبة حقيقية في تحديد هامش الخطأ الذي يمكن السماح به في عملياتها.
لا يعود ذلك فقط إلى التعقيد الهائل لهذه النماذج، ولكن في حال بعض تكنولوجيات الذكاء الاصطناعي يمكن لنماذجها أن تكون صندوقَا أسود لا يمكن النفاذ إليه بسهولة. لا يمكن عمليَا في حالات كثيرة معرفة ما يمكن لنموذج ذكاء صناعي أن يحققه، وما يمكن أن يؤدي إليه رفع قدراته بمعدل معين أو تعديل حزم البيانات المستخدمة في مراحل تطويره ثم تلك المستخدمة في عمله الفعلي.
على جانب آخر، يمكن للأخطاء التي يقع فيها نماذج الذكاء الاصطناعي أن تكون فادحة. فعلى سبيل المثال، تقوم نماذج الذكاء الاصطناعي التوليدي بصفة اعتيادية باختلاق معلومات لا وجود لها، بما في ذلك اختلاق مصادر زائفة لمعلوماتها. هذا النوع من الأخطاء لا يمكن قبوله في عمليات صنع القرار السياسي الذي قد يؤثر على حياة ومصالح ملايين المواطنين. خاصة إن كانت هذه الأخطاء لا يمكن التنبؤ بوقوعها أو حجمها مسبقَا وبعضها يصعب وربما يستحيل كشفه.
انحياز التصميم وانحياز البيانات
نظم ونماذج الذكاء الاصطناعي هي في نهاية المطاف منتجات بشرية. فهي عرضة لأن تعكس انحيازات من يعملون على تصميمها وتطويرها سواء كان ذلك عن وعي أو دون وعي منهم. وعندما يتعلق الأمر بتصميم أدوات تسهم في عمليات صنع القرار السياسي ففرص وجود الانحيازات أكبر ومدى تأثيرها قد يكون أعمق.
يتم اليوم بالفعل توجيه تطبيقات المحادثة المعتمدة على نماذج الذكاء الاصطناعي لحجب أو تعديل استجاباتها لأغراض مثل عدم دعم الكيانات الإرهابية أو تجنّب الإساءة لفئات مجتمعية. ورغم أن هذه التوجيهات قد تبدو مشروعة في ظاهرها، فإن ما يُعد كيانًا إرهابيًا أو إساءة لفئة ما يتأثر، في كثير من الأحيان، بطبيعة البيانات التي تم تدريب النموذج عليها، والتي قد تكون منحازة وتعكس رؤى ومواقف معينة دون غيرها.
إمكانية الوصول إلى حزم بيانات ممثلة لطيف المواقف السياسية المختلفة بشكل متوازن هو أمر مستحيل عمليًا. تمثيل هذه المواقف يخضع لعدد كبير من العوامل التي تؤدي إلى أن الانحيازات السائدة والمهيمنة تظل ممثلة أكثر كثيرًا من تلك المهمشة، وهي لا تعكس الأوزان الحقيقية لهذه الانحيازات على أرض الواقع.
فعلى سبيل المثال، إذا اعتمدت حزم البيانات على محتوى الإنترنت فإن معدلات صناعة هذا المحتوى تتناسب طرديًا مع ارتفاع الدخل الاقتصادي ومستوى التعليم في أي مجتمع. يعني ذلك أن الفئات الأعلى دخلًا والأعلى تعليمًا ستكون ممثلة في أي حزمة بيانات بمعدل أكبر كثيرًا من نسبتها في المجتمع. في المقابل، في مجتمعات بعينها، يمكن للطبقات الأكثر فقرًا أن تغيب بشكل شبه تام عن حزم البيانات المستمدة من الإنترنت.
التلاعب في التصميم وفي حزم البيانات
إضافة إلى الانحياز الذي قد لا يكون متعمدًا أو حسن النية في تصميم نماذج الذكاء الاصطناعي أو في اختيار حزم البيانات المستخدمة لتدريبها فثمة دائمًا مجال للتلاعب المتعمد في الجانبين. فعلى سبيل المثال، يمكن توجيه نماذج الذكاء الاصطناعي عمدًا لتقديم نتائج زائفة أو مخالفة للواقع بهدف تضليل متلقيها.
لا يمكن حصر الطرق التي يمكن من خلالها التلاعب بتصميم نموذج الذكاء الاصطناعي أو التحكم فيه أثناء تشغيله. كذلك، يصعب حصر الأساليب التي يمكن بها انتقاء أو تعديل أو اختلاق حزم بيانات بشكل يؤدي إلى انحرافات كبيرة في عمل نماذج الذكاء الاصطناعي المعتمدة عليها.
يمكن تصميم أو توجيه نماذج الذكاء الاصطناعي خاصة التوليدية منها لإنتاج استجابات ومحتوى يعزز صورا نمطية عنصرية أو جندرية معادية للنساء، أو يروج لخطاب كراهية عنصري أو طائفي أو جندري. ويمكن تحقيق نتائج مشابهة باستخدام حزم بيانات منتقاة بحيث تعزز ميل النماذج التي تعتمد عليها لإنتاج هذا المحتوى تلقائيًا ودون توجيه مباشر.
تهديدات مصادرة عملية صنع القرار
السيادة المطلقة للتكنوقراطية ومصادرة الإرادة الشعبية
ناقش القسم الأول من هذه الورقة كيف يمكن لتكنولوجيا الذكاء الاصطناعي أن تمثل بديلًا مثاليًا للخبرة البشرية المتخصصة لأداء دور الوسيط بين المعلومات وبين عملية صنع القرار. تمتلك هذه التكنولوجيا قدرات لم تتح يومًا للخبرة البشرية المتخصصة. فبإمكانها معالجة قدر هائل من البيانات وتحليلها بدقة عالية، مما يمكنها من الوصول إلى خيارات تأخذ في الاعتبار عددًا غير محدود من العوامل.
بالإضافة إلى ذلك، يمكن لتكنولوجيا الذكاء الاصطناعي أن تصل إلى تقييم وقياس متغيرات كان من يصعب سابقًا أخذها في الاعتبار، وبصفة خاصة فيما يتعلق بالاستجابات النفسية وردود الأفعال المتوقعة للبشر. وتغري هذه القدرات بتسليم نظم ونماذج الذكاء الاصطناعي زمام عملية صنع القرار بشكل متزايد بحجة أنها ليست عرضة للانحيازات والمشاعر البشرية خاصة غير الواعية.
يهدد ذلك في سيناريوهات قد تبدو متطرفة في وقتنا الحالي، ولكنها ليست مستحيلة في المستقبل، إلى مصادرة الإرادة البشرية بشكل كامل. بعبارة أخرى، يهدد ذلك بأن تمارس نظم ونماذج الذكاء الاصطناعي الحكم عمليًا في حين يتحول السياسيون المنتخبون من شعوبهم إلى مجرد مشغلين لها.
التلاعب بتوجهات الرأي العام وتوجيه مسار عملية صنع القرار الديمقراطي
هذا التهديد هو واقع فعلي تمت تجربته بنجاح في التأثير على نتائج عمليات إنتخابية، أبرزها الإنتخابات الرئاسية الأمريكية لعام 2016. ولكن تطور نماذج الذكاء الاصطناعي في السنوات الأخيرة يجعل من هذه التجربة الأولى مجرد مثالًا بدائيًا لما يمكن للذكاء الاصطناعي تحقيقه.
إذا ما تم إدماج القدرة على جمع كميات هائلة من البيانات الشخصية عن المواطنين، وإمكانية تحليل استجاباتهم النفسية، مع توظيف تقنيات الذكاء الاصطناعي التوليدي في إنتاج محتوى متعدد الوسائط، يصعب التحقق من زيفه أو اصطناعه، يصبح من الممكن تصور سيناريو يُستخدم فيه الذكاء الاصطناعي لتوجيه كتلة حرجة من المواطنين نحو أهداف محددة سلفًَا. وقد يشمل ذلك التأثير على خياراتهم في الانتخابات لصالح أطراف معينة، أو دفعهم إلى تبني مواقف ضاغطة للتأثير في عمليات صنع القرار، أو حتى، في أسوأ الحالات، تأجيج التوترات الطائفية وتحفيز العنف الأهلي.
محصلة هذا التهديد هي استلاب الإرادة الحرة للجماهير. وهي صورة أسوأ لسيناريو التكنوقراطية المطلقة حيث أن المسار الديمقراطي لصنع القرار سيظل ظاهريًا على حاله. بل إن هذا السيناريو يمكن أن يتحقق بنجاح تام في أكثر مسارات صنع القرار ديمقراطية، أي تلك التي تسمح بأكبر مشاركة ممكنة للجماهير بشكل مباشر. إضافة إلى ذلك، فمع التطور المتسارع للذكاء الاصطناعي يمكن لكشف ممارسات التلاعب بالرأي العام وتوجهات المواطنين أن يكون بالغ الصعوبة.
نحو خارطة طريق تضمن دعم الذكاء الاصطناعي لعملية صنع القرار الديمقراطي
تكنولوجيا الذكاء الاصطناعي هي أداة لا يمكن التنبؤ بمدى ما يمكن أن تبلغه من قوة. ويمكن في الواقع أن تتخطى كونها أداة يمتلك مصمموها ومطوروها السيطرة الكاملة عليها. لقد ناقشت هذه الورقة بشكل مختصر مظاهر مختلفة لإمكانيات تأثير تكنولوجيا الذكاء الاصطناعي على عملية صنع القرار الديمقراطي. وما يمكن استنتاجه أن هذه الإمكانيات، سواء كانت سلبية أو إيجابية، هي بالغة الضخامة ويمكن أن تغير الطريقة التي يدير بها البشر حياتهم بشكل جذري وحاسم. وما يعنيه إدراك هذه الحقيقة هو أن وجود خارطة طريق واضحة لضمان تجنب الآثار السلبية القائمة بالفعل والمحتملة للذكاء الاصطناعي على عملية صنع القرار الديمقراطي هو ضرورة قصوى لا ينبغي التأخر في تحقيقها.
متطلبات تنظيم حوكمة الذكاء الاصطناعي
ينبغي أن يكون تنظيم حوكمة عمليات تطوير الذكاء الاصطناعي في مجملها هو الأولوية. بدون ذلك التنظيم لا يمكن ضمان تجنب الآثار السلبية المحتملة للتطور المنفلت لهذه التكنولوجيا. والواقع أن السنوات الأخيرة قد أثبتت أن دافع تعظيم الأرباح والمنافسة على نصيب أكبر من الأسواق المحتملة الذي يقود مبادرات وخطط شركات التكنولوجيا يؤدي بشكل متزايد إلى إنفلات مسار تطور هذه التكنولوجيا.
على جانب آخر، تخضع الدول حول العالم بدورها لضغوط هائلة نتيجة للتنافس فيما بينها على إمتلاك تكنولوجيا الذكاء الاصطناعي. ويؤدي ذلك إلى أن الدول الأكثر تنافسًا، وهي في نفس الوقت التي تخضع الشركات الكبرى نظريًا لولايتها التشريعية، أكثر ترددًا في فرض أطر تنظيمية لحوكمة الذكاء الاصطناعي خشية أن يقيد ذلك تطور هذه التكنولوجيا داخل حدودها.
وفي حين أن الأطر التنظيمية للذكاء الاصطناعي التي قامت بعض الدول بتشريعها في السنوات الأخيرة قد أخذت في اعتبارها بعض الجوانب التي يمكن أن تؤثر في عملية صنع القرار الديمقراطي، فلا يزال أغلب هذه الجوانب وأعمقها تأثيرًا لم تتم تغطيته بالقدر الكافي.
بالإضافة إلى ذلك، لا تأخذ الإرادة السياسية في الدول الأكبر نفوذًا التهديدات المحتملة للذكاء الاصطناعي لعملية صنع القرار الديمقراطي بجدية كافية. والتوجهات الأخيرة لمعظم هذه الدول تنبئ باستمرار دعمها للمسار الحالي لتطور هذه التكنولوجيا، وبصفة خاصة لاستئثار الشركات الكبرى بالقرارات الموجهة لهذا التطور.
هذا الوضع القائم يثبت بوضوح أن أية أطر تنظيمية فعالة لحوكمة الذكاء الاصطناعي ينبغي أن تؤسس لحوكمة ديمقراطية ومتجاوزة للمصالح القطرية الضيقة. ما يعنيه ذلك هو أن السيطرة على توجهات تطوير الذكاء الاصطناعي لا ينبغي أن تترك لشركات التكنولوجيا المتنافسة والهادفة للربح. كما أن الدول المتنافسة بدورها لا يمكنها أن تضع أطرًا تنظيمية فعالة لحوكمة الذكاء الاصطناعي. ومن ثم فلا بديل عن وضع وفرض هذه الأطر التنظيمية على مستوى دولي.
من ناحية آخرى، تتطلب حماية عملية صنع القرار الديمقراطي من الآثار السلبية المحتملة للذكاء الاصطناعي أن تفرض أية أطر تنظيمية لها إجراءات تضمن التزام عمليات تطوير ونشر وتشغيل نظم ونماذج هذه التكنولوجيا بالمبادئ الأساسية اللازمة لحوكمة أخلاقية لها. وفي مقدمة هذه المبادئ الشفافية، ضمان الخلو من الانحياز، الإشراف البشري، وحماية الجماعات المستضعفة.
حماية وتمكين الإرادة الشعبية
حتى تكون عملية صنع القرار السياسي ديمقراطية يجب أن تعبّر عن الإرادة الشعبية من خلال ضمان أوسع مشاركة ممكنة للمواطنين. إلا أن هذه الإرادة تواجه تهديدًا مزدوجًا بفعل بعض استخدامات الذكاء الاصطناعي. فمن جهة، قد يتم تجاوز الإرادة الشعبية عبر احتكار نظم ونماذج الذكاء الاصطناعي لعملية اتخاذ القرار، سواء من خلال استبعاد التدخل البشري بالكامل، أو حصر هذا التدخل في نطاق فاعلين محدودين يملكون هذه النماذج أو يمتلكون القدرة على تحمل تكلفتها. ومن جهة أخرى، تُهدَّد حرية هذه الإرادة ذاتها من خلال استخدام الذكاء الاصطناعي لتوجيه اختيارات المواطنين بشكل متعمد، الأمر الذي يُفرغ المشاركة الشعبية من مضمونها الديمقراطي الحقيقي.
ثمة عدة سبل لمحاولة تجنب كل من هذين المسارين. من بين هذه السبل استخدام الأطر التنظيمية لحوكمة تطوير تكنولوجيا الذكاء الاصطناعي لحظر بعض الممارسات وبعض أنواع نماذج الذكاء الاصطناعي. فعلى سبيل المثال، يمكن حظر استخدام نماذج الذكاء الاصطناعي بطريقة تسمح لها بتخطي دور تقديم بدائل للقرارات أو السياسات ذات الصلة بالشأن العام.
كما يمكن منع ممارسات أخرى مثل استخدام البيانات الشخصية لنمذجة الخصائص النفسية للأفراد واستغلالها للتأثير مباشرة على حرية إرادتهم. بالإضافة إلى ذلك، يمكن أن تخص هذه الأطر استخدامات نماذج الذكاء الاصطناعي لأغراض الدعاية الانتخابية بقيود خاصة ومتطلبات تتعلق بالرقابة والإشراف عليها.
على جانب آخر، وبموازاة ما يمكن للأطر التنظيمية أن تقدمه، قد يكون السبيل الأكثر فعالية لمواجهة تهديدات نظم ونماذج الذكاء الاصطناعي هو استخدام هذه النظم والنماذج نفسها لحماية وتمكين الإرادة الشعبية. فيمكن استخدام نظم ونماذج الذكاء الاصطناعي لكشف المعلومات المضللة والمحتوى الزائف ولتقديم معلومات صحيحة وموثوقة للمواطنين.
وقد تكون هذه المهمة مناسبة أكثر لجهات مستقلة كوسائل الإعلام، أو لجهات غير ربحية مثل منظمات المجتمع المدني ومجموعات النشطاء المعنيين بالدفاع عن الديمقراطية وعن حقوق الإنسان. وكذلك الساعين إلى تحرير التكنولوجيا الرقمية بصفة عامة من سيطرة شركات التكنولوجيا الكبرى والحكومات.
رؤية لمستقبل أفضل
ناقشت ورقة سابقة لمسار آثار منصات التواصل الاجتماعي على مستقبل الديمقراطية. دافعت تلك الورقة عن طرح هو أن نموذج العمل الربحي لهذه المنصات يجعل من التخلص من التهديدات التي تمثلها للديمقراطية أمرًا شبه مستحيل. ينطبق الأمر نفسه على تهديدات تطوير نماذج الذكاء الاصطناعي لعملية صنع القرار الديمقراطي.
تكمن الإشكالية في سيطرة شركات التكنولوجيا الكبرى على عمليات تطوير الذكاء الاصطناعي والمنافسة الضارية فيما بينها لتحقيق أعلى عائد ممكن من وراء تسويق تطبيقات هذه التكنولوجيا. ويفاقم من ذلك ربط المصالح القومية للدول بقدرة شركاتها على المنافسة في سوق أصبح أمنها ومصائرها مرهونة به.
يؤدي ذلك إلى إضعاف الأطر التنظيمية لحوكمة الذكاء الاصطناعي التي يمكن أن تضعها الدول. فستظل الدول حريصة على ألا تحرم شركاتها من أية ميزة تنافسية. . في المقابل، تحرص الدول التي لا تحتل موقعًا متقدمًا في هذا المجال على عدم فرض تشريعات صارمة قد تدفع بالشركات الكبرى إلى الخروج من أسواقها، خاصة إذا كانت هذه القيود تُهدد بتحقيق أرباح أقل مقارنة بما تحققه تلك الشركات في أسواق أخرى. فنتيجة ذلك أن تحرم هذه الدول نفسها من الاستفادة بالتطبيقات المتقدمة للذكاء الاصطناعي.
وفي حين يمكن توقع ألا تفرض النظم القمعية أطرًا تنظيمية تجرم دون استثناءات استغلال نظم الذكاء الاصطناعي لأغراض مثل المراقبة والرقابة واختراق النظم المعلوماتية، فالدول ذات النظم الديمقراطية قد تجرم هذه الاستخدامات على أراضيها وضد مواطنيها، ولكنها لن تجرم تطوير وتسويق شركاتها لها.
المقصود بذلك هو أن الظروف الحالية لتطوير الذكاء الاصطناعي تُخضِّع مصير عملية صنع القرار الديمقراطي لنتائج هذا التطوير. وذلك في الوقت الذي تتخذ فيه القرارات المصيرية لتطوير هذه التكنولوجيا جهات لا تدار بصورة ديمقراطية ولا تخضع عمليًا للمؤسسات المنتخبة من خلال المسار الديمقراطي.
البديل الوحيد لهذا التناقض هو عكسه، أي إخضاع تطوير الذكاء الاصطناعي لعملية صنع القرار الديمقراطي. ولا يمكن ضمان تحقيق ذلك بشكل فعلي وليس بطريقة صورية فقط إلا من خلال أمرين: الأول هو اعتبار الذكاء الاصطناعي موردًا استراتيجيًا تمتلكه الشعوب وتشارك في إدارته من خلال أدوات ممارسة الديمقراطية.
أما الأمر الثاني فهو استغلال الذكاء الاصطناعي لتطوير عمليات صنع القرار الديمقراطي لضمان مشاركة شعبية أوسع فيها. فاعتماد الديمقراطية التمثيلية على الاستحقاقات الانتخابية كبديل وحيد لمشاركة الشعوب في إدارة شؤونها يجعل من السهل تجريدها من صفة الديمقراطية في عصر الذكاء الاصطناعي. ويعني ذلك ألا تمثل إلا من يمكنه استغلال القدرات غير المسبوقة للذكاء الاصطناعي في السيطرة على مسار ونتائج العمليات الانتخابية.
خاتمة
مع التطور السريع للذكاء الاصطناعي، بات الخط الفاصل بين الحاضر والمستقبل أقل وضوحًا؛ فالمستجدات التقنية التي كان يُفترض أن تنتمي إلى الغد أصبحت واقعًا في يومنا هذا. وفي ظل ما تمثّله هذه التكنولوجيا من تهديدات جوهرية لعملية صنع القرار الديمقراطي، يصبح توخي الحذر ضرورة منطقية، وتُصبح الاستجابة السريعة لمواجهة هذه التهديدات أمرًا ملحًا.
وعلى الرغم من أن هذه المخاطر قد أثارت ردود فعل واسعة، عبّر عنها الباحثون في دراساتهم، والبرلمانات في نقاشاتها، ووسائل الإعلام ومنصات التواصل الاجتماعي بمختلف أشكالها، فإن التحرك الفعلي والجدي لمواجهتها لا يزال بطيئًا ومترددًا.