مقدمة
الذكاء الاصطناعي تقنيةٌ سريعة التطور ولها تأثير عميق على المجتمع. يُستخدَم الذكاء الاصطناعي في مجموعةٍ واسعة من التطبيقات، ابتداءً من الرعاية الصحية ووسائل النقل ووصولًا إلى الحروب. تقوم الشركات والحكومات اليوم باستخدامه للمساعدة في صناعة القرارات التي يمكن أن تؤثر بشكلٍ كبير على المجتمعات والأفراد. يوفر الذكاء الاصطناعي العديد من الفوائد للتنمية البشرية، لكنه يمكن أن يكون كذلك مصدرًا للعديد من المخاطر. مع ازدياد أهمية وقوة الذكاء الاصطناعي، من المهم النظر في التأثير المحتمل للذكاء الاصطناعي على حقوق الإنسان.
تحتل حقوق الإنسان مركزًا أساسيًا في معنى كونك إنسانًا. يعد ضمان تعزيز حقوق الإنسان وعدم تقويضها بواسطة الذكاء الاصطناعي من بين العوامل الرئيسية التي ستشكل العالم الذي نعيش فيه، وهذا راجعٌ إلى حقيقة تأثير التكنولوجيا المعتمدة على الذكاء الاصطناعي على حياة كل شخص -ابتداءً من تطبيقات وسائل التواصل الاجتماعية ووصولًا إلى الأجهزة المنزلية الذكية– وإلى كون السلطات العامة تستخدمه بشكلٍ متزايد لتقييم تخصيص الموارد، وتقييم مهارات الناس أو شخصياتهم، ولاتخاذ القرارات التي تحمل تداعيات خطيرة وحقيقية على حقوق الإنسان.
وبالتالي، فمن المهم إيجاد التوازن الصحيح بين تطوير الذكاء الاصطناعي وحماية حقوق الإنسان. يعد فهم الآثار السلبية للذكاء الاصطناعي على حقوق الإنسان نقطة انطلاق مهمة من أجل وضع تدابير تضمن استفادة المجتمع من إمكاناته مع معالجة عواقبه السلبية على حقوق الناس.
يمكن أن يبدو الذكاء الاصطناعي -وخاصةً حقوله الفرعية المتعلقة بالتعلم العميق وتعلم الآلة- محايدًا في الظاهر فحسب، أما ما دون ذلك ومع التعمق قليلًا، فالأمر ليس كذلك، إذ يمكن أن يكون الذكاء الاصطناعي شخصيًا تمامًا. يمكن أن يكون اتخاذ القرارات بناءً على الحسابات الرياضية أمرًا بالغ الأهمية في العديد من القطاعات، لكن الاعتماد المفرط على الذكاء الاصطناعي يمكن أن يضر أيضًا بالمستخدمين ويؤصّل الظلم ويقيّد حقوق الأشخاص. يمكن للذكاء الاصطناعي وعملياته وأنظمته تغيير مفهوم التجربة البشرية. وعلى الرغم من هذه العواقب السلبية، لا تهتم مبادئ حوكمة الذكاء الاصطناعي بحقوق الإنسان بالقدر اللازم، وهو خطأ يحتاج إلى اهتمام عاجل.
فقدان الخصوصية
يمكن استخدام الذكاء الاصطناعي لجمع وتحليل كمياتٍ مهولةٍ من البيانات حول الأشخاص، بما في ذلك معلوماتهم الشخصية وأنشطتهم عبر الإنترنت وحركاتهم البدنية، والتي يمكن استخدامها لاحقًا لتتبع الأشخاص أو استهدافهم بالإعلانات المخصصة أو حتى التمييز ضدهم، مما قد يؤدي إلى فقدان الخصوصية. يمكن لهذا الأمر أن يكون ذا تأثيرٍ كبيرٍ على إحساس الناس بالأمان والرفاهية.
بينما تبحث الشركات الذكية عن طرق تمكنها من تحقيق أهدافها الاستراتيجية، يمكن أن يكون تطوير أنظمة الذكاء الاصطناعي، كونها لا تزال وليدة، مناسبًا لبعض حالات الاستخدام. في المقابل، ليس لدى الشركات حافز كبير لتضمين حماية الخصوصية في أنظمتها. ورغم عناوين الأخبار المثيرة للقلق التي خلّفتها الخروقات الكبيرة للخصوصية مؤخرًا، إلا أن تداعياتها على المنظمات المسؤولة عنها كانت قليلة. تطوير الذكار الاصطناعي فشل، حتى الآن، في إعطاء الأولوية لأهمية الخصوصية. بالإضافة إلى ذلك، تحمل معالجة البيانات الشخصية خطرًا كبيرًا على حقوق الأشخاص وحرياتهم.
بعض تحديات الخصوصية للذكاء الاصطناعي هي:
- البيانات التي يتم جمعها عن أشخاص ليسوا أهدافًا لعملية جمع البيانات
- وجود البيانات لفترةٍ أطول من الأشخاص الذين قاموا بإنشائها، كنتيجةٍ لانخفاض تكاليف تخزين البيانات
- استخدام البيانات بما يتجاوز الغرض الأصلي الذي جُمعت لأجله
جمع البيانات المستند إلى الذكاء الاصطناعي يثير النقاش حول قضايا الخصوصية، مثل الموافقة المستنيرة، والمشاركة الطوعية، وقدرة الشخص على الانسحاب بحرية. ومن الأمثلة على ذلك انتهاك شركة Clearview الأمريكية لقوانين الخصوصية الكندية، إذ قامت الشركة بجمع صورٍ فوتوغرافية للبالغين والأطفال الكنديين للتعرف على الوجه والمراقبة الجماعية دون موافقتهم على الاستخدام التجاري، وهو ما يعد انتهاك لخصوصية الأشخاص. كشف تحقيقٌ أجراه مكتب مفوض الخصوصية الكندي (OPC) في هذه المشكلة عن أن “تجريف المعلومات” قد انتهك شروط الخدمة للعديد من المواقع مثل Venmo وYouTube وFacebook وInstagram. بالإضافة إلى ذلك، وعلى الرغم من ادعاء شركة Clearview AI بأن من الممكن العثور على المعلومات بحريةٍ على الإنترنت وأن الموافقة ليست إلزامية؛ فقد أثبت مكتب مفوض الخصوصية الكندي أن هناك بالفعل حاجة إلى الموافقة الصريحة في حالة المعلومات الحساسة المتعلقة بالقياسات الحيوية وعندما يكون الكشف عنها أو استخدامها خارج نطاق توقعات الفرد المعقولة.
نظرًا للاعتقاد الشائع بكون البيانات هي شريان الحياة للذكاء الاصطناعي، فإن بعض البيانات الحساسة هي معلومات صحية محمية (PHI) ومعلومات تعريف شخصية (PII). وبالتالي، فمن المهم تحديد المستوى الذي يستخدم فيه الذكاء الاصطناعي هذين النوعين من البيانات، بما في ذلك القياسات الحيوية. يصبح تغيير الغرض من البيانات عن طريق الاحتفاظ بمعلومات التعريف الشخصية مشكلةً تتعلق بالخصوصية حين ينتهي الغرض الأصلي من جمع البيانات ومعالجتها.
علاوة على ذلك، يمكن للمراقبة الموغِلة أن تعزز جمع البيانات غير المصرح بها، وتؤدي إلى تآكل استقلالية الفرد، ما يعرض معلومات التعريف الشخصية الحساسة للخطر ويعرّض الأشخاص للهجمات السيبرانية. عادةً ما تتفاقم مثل هذه المشكلات بسبب تأثير شركات التكنولوجيا الكبرى التي تمتلك كميات كبيرة من البيانات تحت تصرفها ولها تأثير كبير على جمع البيانات وتحليلها واستخدامها.
تتبُع Google للموقع الجغرافي للأشخاص يعد أحد الأمثلة على انتهاك خصوصية الأفراد. أدت المخاوف المتعلقة بالخصوصية إلى جعل ممارسات تتبع الموقع الجغرافي التي تقوم بها الشركة موضع تمحيصٍ مكثف في السنوات الأخيرة، إذ تتعقب Google الموقع الجغرافي لمستخدميها حتى إذا لم يقوموا بإعطاء إذنًا صريحًا لمشاركة موقعهم. ظهر هذا الكشف في عام 2018 عندما أثبت تحقيق أجرته وكالة Associated Press استمرار خدمات Google في تخزين بيانات الموقع الجغرافي، حتى بعد قيام المستخدمين بإيقاف تشغيل تتبُع مواقعهم؛ ما مثّل انتهاكًا واضحًا لخصوصية المستخدم وثقته، وعرّض الشركة إلى رد فعلٍ عنيفٍ وكبيرٍ من المستخدمين والمدافعين عن الخصوصية. تتمثل إحدى المشكلات الرئيسية في ممارسات تتبع الموقع الجغرافي في كونها تمهد الطريق لإساءة الاستخدام المحتملة للبيانات الشخصية.
حماية البيانات
غالبًا ما يتم تدريب أنظمة الذكاء الاصطناعي على مجموعات كبيرة من البيانات، والتي يمكن أن تكون عرضةً للقرصنة ولغيرها من أشكال اختراق البيانات، ما يمكن أن يؤدي إلى الكشف غير المصرح به عن المعلومات الشخصية وقد يكون له تأثيرٌ كبير على حق الأشخاص في السرية والنزاهة. تنتهك أنظمة الذكاء الاصطناعي أيضًا العديد من اللوائح العامة لحماية البيانات (GDPR). تقوم اللائحة العامة لحماية البيانات على سبعة مبادئ مهمة توجه حماية البيانات، وهي: التقييد الهادف، والإنصاف، والشفافية، والقانونية، وتقليل البيانات، والدقة، والمساءلة، وقيود التخزين، والسرية والنزاهة.
يتمثل التحدي الذي تواجهه تكنولوجيا الذكاء الاصطناعي في احتمال إساءة استخدام الجهات السيئة لها، إذ يمكن استخدامه لإنشاء مقاطع فيديو وصور مزيفة مقنِعة يمكن استخدامها لنشر معلومات مضللة أو للتلاعب بالرأي العام. بالإضافة إلى ذلك، يمكن استخدام الذكاء الاصطناعي لإنشاء هجمات تصيد احتيالي متطورة للغاية، وخداع الأشخاص للكشف عن معلومات حساسة أو النقر فوق روابط ضارة. يمكن أن يؤثر إنشاء صور ومقاطع فيديو مزيفة ونشرها بشكلٍ خطير على الخصوصية وحماية البيانات. يرجع السبب في ذلك إلى أن الوسائط المُلفقة عادةً ما تحتوي على أشخاص حقيقيين ربما لم يوافقوا على استخدام صورهم بهذه الطريقة، الأمر الذي ينتهك مبدأ الاستخدام القانوني والعادل والشفاف للبيانات، مما يتطلب الكشف عن الهدف من استخدام البيانات بشكلٍ كاملٍ وواضح. الغرض من هذا المبدأ هو خلق الشفافية في مشاركة البيانات حتى يكون أصحاب المصلحة على دراية بكيفية معالجة بياناتهم.
يعد التنميط النفسي لمستخدمي Facebook، وآثار أزمة Cambridge Analytica على الخصوصية ودورها في الانتخابات الرئاسية الأمريكية لعام 2016 أمثلةً على كيفية تآكل ثقة الناس في المؤسسات لأنهم يشعرون أن خصوصيتهم غالبًا ما يتم انتهاكها وأن البيانات غير محمية. توضح الأمثلة أيضًا أن الشركات قد انتهكت مبادئ حماية البيانات، ولا سيما مبدأ تحديد الغرض. ينص مبدأ تحديد الغرض على أن جمع البيانات يجب أن يتم لأغراض صريحة وشرعية ومحددة، ورغم ذلك، يوضح مثال Cambridge Analytica لعام 2016 أن الشركة قد عالجت البيانات بطريقةٍ لا تتوافق مع الأغراض المقصودة، حيث يؤكد مبدأ تحديد الغرض أنه ينبغي أن لا يتم تخزين البيانات أو إعادة توجيهها لأغراض أخرى غير التي تم الكشف عنها في البداية لموضوعات البيانات، وعلاوةً على ذلك، فهو ينتهك مبدأ تقليل البيانات الذي يقصر استخدام البيانات على الاحتياجات الأساسية التي جُمعت لأجلها.
أظهرت فضيحة Cambridge Analytica أيضًا كيف يمكن لجمع البيانات الشخصية بواسطة الذكاء الاصطناعي أن ينتهك السرية. تم استخدام البيانات للتلاعب بالانتخابات، ما يعني أنها لم تكن محميةً ضد المعالجة غير القانونية أو غير المصرح بها أو الفقد العرضي. تعني السرية الحفاظ على خصوصية العميل واستخدام البيانات بطريقة محترمة ومنفصلة عن خصوصية ومعلومات العميل، لكن الفضيحة فشلت في مراعاة مبدأ حماية البيانات هذا.
كما يتم انتهاك الحق في حماية البيانات من الاستخدام غير المقصود من خلال المراقبة. يمكن استخدام الذكاء الاصطناعي لأتمتة المراقبة، مما يسمح للحكومات والشركات بمراقبة أنشطة الأشخاص على نطاق واسع. وبهذه الطريقة يمكنهم استخدام الذكاء الاصطناعي لقمع المعارضة أو استهداف الأشخاص بالمضايقة أو الاضطهاد. تحظى المراقبة المستمرة، أي مراقبة موقع جغرافي أو فرد بشكل مستمر، بشعبية بين جهات إنفاذ القانون للحصول على معلومات حول مشتبه به أو عدو، غير أن المراقبة المستمرة وجمع كميات هائلة من المعلومات الشخصية يمكن أن تؤدي إلى انتهاكات محتملة للخصوصية وانتهاكات للحقوق الشخصية. وغالبًا ما تعمل أنظمة المراقبة الآلية دون إرشاداتٍ وإشراف واضحين، مما يزيد من مخاطر جمع البيانات العشوائي وإساءة استخدامها. وبالتالي، فيمكن أن يؤدي التبني واسع النطاق للمراقبة الآلية إلى تعزيز ثقافة المراقبة المستمرة، وتقويض الثقة والخصوصية في المجتمع.
حرية التعبير
يمكن استخدام الذكاء الاصطناعي للرقابة على المحتوى وحظر الوصول إلى مواقع الويب والتطبيقات، وبالتالي، يمكن استخدامه لقمع المعارضة أو للتحكم في تدفق المعلومات أو حتى للترويج لخطاب الكراهية. إذ يمكن استخدام الذكاء الاصطناعي لمنع الوصول إلى المواقع الإخبارية أو منصات التواصل الاجتماعي أو حتى الموارد التعليمية. وعلى سبيل المثال، أشار المجلس الأوروبي لحقوق الإنسان والخوارزميات إلى أن YouTube وFacebook قد تبنيا آلية تصفية للكشف عن المحتوى المتطرف العنيف، إلا أنه لا تتوفر معلوماتٌ حول المعايير أو الإجراءات المتبعة للتأكد من أن المحتوى يخالف القانون بشكل واضح.
في حين يمكن اعتبار المبادرة خطوةً جيدةً لوقف نشر مثل هذه المواد، إلا أن هناك نقصًا في الشفافية حول الإشراف على المحتوى، ما يثير المخاوف من استخدامها لتقييد حرية التعبير المشروعة والتعدي على قدرة الأشخاص على التعبير عن أنفسهم. وكانت ذات المخاوف قد أثيرت بشأن التصفية الآلية للمحتوى الذي ينشئه المستخدم عند نقطة التحميل، والذي يُفترض أنه ينتهك حقوق الملكية الفكرية (IPRs). في ظروف محددة، يمكن أن يؤثر استخدام الذكاء الاصطناعي في نشر المحتوى على حرية التعبير بشكلٍ كبير. يتجلّى التوتر بين حقوق الإنسان والتكنولوجيا أيضًا في مجال التعرف على الوجه.
ففي حين أنه يمكن أن يكون أداةً مؤثرة لتمكين إنفاذ القانون والعثور على المجرمين المشتبه بهم، إلا أنه يمكن أن يصبح كذلك سلاحًا للتحكم بالأشخاص. أصبح من السهل بشكلٍ متزايد على الحكومات أن تراقب الناس بشكلٍ دائم وتحدّ من حقوقهم في الخصوصية وحرية الصحافة وحرية التجمع. كما وتستخدم محركات البحث ومواقع التواصل الاجتماعي ومواقع الويب أنظمة الذكاء الاصطناعي بشكلٍ متزايدٍ للتحكم في المعلومات التي يتعامل معها المستخدمون عبر الإنترنت من أجل تقديم اقتراحات بشأن تفضيلاتهم، مثل اختيار الموسيقى والتسوق عبر الإنترنت.
علاوة على ذلك، يمكن أن يؤثر الذكاء الاصطناعي على حرية التعبير من خلال الإشراف على المحتوى والرقابة الذاتية. يمكن لممارسات الإشراف على المحتوى وتعديله، التي تحركها خوارزميات الذكاء الاصطناعي، أن تخلق بيئةً يشعر فيها الأفراد والجماعات بأنهم مضطرون للانخراط في الرقابة الذاتية والحجب الذاتي بسبب تصورهم أنهم خاضعون للمراقبة المستمرة. يمكن أن يؤدي الخوف من التداعيات أو العقوبة المحتملة للتعبير عن أفكار أو آراء معينة إلى التأثير على حرية التعبير، مما يحد من تنوع الأصوات والأفكار داخل المجتمع. يمكن لظاهرة الرقابة الذاتية هذه أن تقوّض مبادئ الخطاب المفتوح والنقاش العام القوي الضروريين لمجتمعٍ صحيٍ وسليم. كما يمكن كذلك لأنظمة الذكاء الاصطناعي التي لم يتم تدريبها على لغات الأقليات أو اللغة العامية أن تفرض الرقابة على الكلام المشروع.
خطاب الكراهية والدعاية والتضليل
تتم الإشارة إلى خطاب الكراهية عبر الإنترنت على نطاقٍ واسعٍ باعتباره مشكلة مجتمعية، ولكن تحديد ما يمكن وصفه بخطاب كراهية هو مهمة صعبة. هناك نقص في المعايير القانونية الواضحة للتمييز بين الخطاب الجارح والخطاب المسيء المحمي بموجب حرية التعبير. حتى يومنا هذا، لا يزال تحديد خطاب الكراهية عبر الإنترنت وإزالته من قبل المشرفين البشريين على المحتوى أمرًا مرهقًا للغاية.
يمكن استخدام الذكاء الاصطناعي لتضخيم خطاب الكراهية والتضليل ونشر المعلومات الخاطئة، والذي يمكن بدوره أن يساهم في الاضطرابات الاجتماعية والعنف. على سبيل المثال، يمكن استخدام الذكاء الاصطناعي لإنشاء مقالاتٍ إخبارية مزيفة أو نشر الدعاية أو حتى للتحريض على العنف. وفقًا لدراسةٌ صدرت في يناير 2023 عن شركة OpenAI ومركز الأمن والتكنولوجيا الناشئة فأن الإمكانات التخريبية للذكاء الاصطناعي جعلت البعض يطلق عليها اسم أسلحة دمار شامل.
خلال العقدين الماضيين، مكّن الابتكار التكنولوجي المنظمات المتطرّفة من الوصول إلى أدوات جديدة، بما في ذلك الكاميرات المتطورة وبرامج التحرير والميكروفونات لإنشاء دعايةٍ على غرار هوليوود. تستخدم المنظمات الإرهابية أيضًا أشكالًا أحدث من وسائل الإعلام الرقمية لدعايتها التي تمكن المستهدفين من التفاعل مباشرة مع المحتوى.
وفيما يتعلق بالتضليل أو المعلومات المضللة، فإن بعض روبوتات المحادثة -بما يشمل الروبوتات المصاحبة- يتم تطويرها عادةً بهدف توليد استجاباتٍ عاطفية تجعلهم يبدون قابلين تمامًا للتصديق. وبحسب Sam Altman، الرئيس التنفيذي لشركة OpenAI، فإن هناك مخاوف من إمكانية استخدام هذه النماذج في التضليل على نطاق واسع.
علاوةً على ذلك، يمكن استخدام الذكاء الاصطناعي لإنشاء مقاطع زيف عميق، وهي مقاطع فيديو أو تسجيلات صوتية تم التلاعب بها لجعلها تبدو وكأن شخصًا ما يقول أو يفعل شيئًا لم يقله أو يفعله في الواقع. يمكن استخدام هذه التقنية لنشر معلومات مضللة أو للإضرار بسمعة شخص ما أو حتى للتدخل في الانتخابات. إذ يمكن مثلًا استخدام الزيف العميق لإظهار سياسيٍ وكأنه يقول شيئًا لم يقله أبدًا في الواقع.
في الختام، يمكن للذكاء الاصطناعي أن يلعب دورًا في ترويض خطاب الكراهية، لكنه يُستخدم بشكلٍ متزايد للتضليل والدعاية ونشر المعلومات المضللة واستهداف الأشخاص بشكلٍ غير عادل.
الحق في المساواة وعدم التمييز
يتم تدريب أنظمة الذكاء الاصطناعي على البيانات التي يتم إنشاؤها بواسطة البشر، والتي يمكن أن تعكس التحيزات البشرية. يمكن أن يؤدي ذلك إلى اتخاذ أنظمة الذكاء الاصطناعي لقراراتٍ تمييزية، مثل حرمان الأشخاص من القروض أو الوظائف على أساس العِرق أو الجنس. فمن المرجح مثلًا أن يتخذ نظام الذكاء الاصطناعي الذي يتم تدريبه على البيانات من عمليات التوظيف المتحيزة قراراتٍ تمييزية بشأن من ينبغي أن يتم تعيينه، هذا مع الأخذ بالاعتبار حقيقة انتشار استخدام الذكاء الاصطناعي في الاستقطاب والتوظيف من قبل الشركات بشكلٍ أكبر مؤخرًا. تعقد المؤسسات العزم على استخدام الأدوات التي تعمل بالذكاء الاصطناعي لفحص المرشحين للوظائف واختيارهم بسبب الفوائد التي يقدمها، مثل زيادة الموضوعية والكفاءة. تثير هذه الأدوات مخاوفَ بشأن أضرارها المتعلقة بالتحيز والإنصاف. فقد وُجد على سبيل المثال، أنّ أداة الاستقطاب المدعومة بالذكاء الاصطناعي في أمازون تميّز ضد النساء، حيث تم تدريب النظام على السير الذاتية لمرشحين أغلبهم من الذكور. سلطت هذه الحالة الضوء على قدرة الذكاء الاصطناعي على إدامة التمييز والتحيز الحاليين، والحاجة إلى النظر بعناية في اختبار أدواته للتأكد من كونها لا تؤصّل لمثل هذه الممارسات غير العادلة.
يمكن كذلك استخدام الذكاء الاصطناعي لإنشاء أنظمة رصيدٍ اجتماعي تُستخدَم لتتبع ومراقبة سلوك الأشخاص عبر الإنترنت وعادات إنفاقهم، ولمكافأتهم أو معاقبتهم وفقًا لذلك، ما قد يؤدي إلى فقدان الحرية والاستقلالية، إذ يتم مراقبة الأشخاص باستمرار والحكم عليهم بواسطة أنظمة الذكاء الاصطناعي. فعلى سبيل المثال، يسعى نظام الرصيد الاجتماعي في الصين إلى تصنيف المؤسسات والهيئات الحكومية والمواطنين حسب جدارتهم بالثقة. يمكن أن تؤثر درجة الرصيد المتراكمة على إمكانيات الفرد في الحياة وأن توفر فوائد للحاصلين على درجةٍ عالية. ومع ذلك، فإن هذا النظام ينزع من الأقليات حقهم في الاقتراع والحق في الحصول على الرصيد.
بالإضافة إلى ذلك، تلجأ البنوك وكذلك المقرضون الآخرون إلى الذكاء الاصطناعي لتطوير نماذج متطورة لتقدير مخاطر الائتمان. وبينما يُحظر قانونًا على شركات التصنيف الائتماني النظر في عوامل مثل الإثنية أو العِرق، يجادل النقاد بأن لدى هذه النماذج تحيزاتٌ خفيةٌ ضد الأقليات، مما يحد من قدرتها على الحصول على الرصيد. على سبيل المثال، فقد أثبتت دراسةٌ أن المقترضين من الأقليّات والأسر ذات الدخل المنخفض يتعرضون للتهميش من قِبل نماذج تقدير الائتمان التي تعتمد على الذكاء الاصطناعي، وخلصت الدراسة إلى أن هذه الأدوات التنبؤية كانت أقل دقةً بنسبة 5% إلى 10% في مجموعاتٍ كهذه مقارنة بالفئات المهيمنة وذات الدخل المرتفع. ليست خوارزميات تقييم الائتمان متحيزة ضد هؤلاء المقترضين، إلا أنّ البيانات الأساسية غير دقيقة بالقدر الكافي لتوقع القدرة على الاستدانة لهذه الفئات، وذلك بسبب وجود سجلات ائتمانية محدودة لدى هؤلاء المقترضين، مع ملاحظة أن سجل الائتمان “الضعيف” يقلل رصيد الفرد، لأن المقرضين يفضلون وجود المزيد من البيانات. وبالتالي، فمع الذكاء الاصطناعي، تعمل البنوك ببيانات مليئةٍ بالعيوب لعديد الأسباب التاريخية. فبالنسبة لشخص لديه بطاقة ائتمان واحدة فقط -ولم يكن لديه رهن عقاري مطلقًا- هنالك قدرٌ أقل بكثير من المعلومات التي يمكن أن تساعد المقرضين على التنبؤ بما إذا كان سيتخلف عن السداد أم لا. إذا تعثر مثل هذا الشخص مرةً واحدة فقط قبل بضع سنوات، فليس بالضرورة أن تكون النتيجة ذاتها في المستقبل.
علاوةً على ذلك، يمكن استخدام الذكاء الاصطناعي لإنشاء الصناديق السوداء، وهي أنظمةٌ معقدة للغاية بحيث يستحيل على البشر فهم كيفية عملها، الأمر الذي قد يؤدي إلى فقدان الشفافية والمساءلة، حيث لا يستطيع الناس فهم كيفية اتخاذ أنظمة الذكاء الاصطناعي القرارات. غالبًا ما يثق الناس اليوم بشكلٍ كبيرٍ في هذه الخوارزميات مجهولة الهوية، لكنهم في الواقع يسلّمون المزيد والمزيد من بياناتهم إلى كياناتٍ أقل استنارةً مما كان يُعتقد سابقًا. على سبيل المثال، فقد أبرز مهندس البرمجيات Jacky Alcine في عام 2015 أن خوارزميات التعرف على الصور في Google Photos كانت تصنّف أصدقاءه السود على أنهم “غوريلا”، قبل أن تصرح Google في عام 2021 بأنها أصلحت الخوارزمية العنصرية عن طريق إزالة الغوريلا تمامًا من تقنيتها. يمكن أن يُعزى إهمال Google إلى عدم قدرتها على فهم سبب حدوث المشكلة أساسًا. يوضح هذا المثال كيف يمكن للخوارزميات إعادة إحياء التمييز التاريخي وتعزيزه في المجتمع. كونها رائدةً في مجال الذكاء الاصطناعي؛ فإن حقيقة عدم تمكن Google من التغلب على مثل هذه المشكلة توضح التعقيدات العميقة المرتبطة بالخوارزميات وتعلم الآلة. في عالم البرمجة ثمة قولٌ مأثور يقول: “إذا كان مُدخَلك قمامةً، فسوف تحصل على القمامة. وإذا كان مُدخَلك تحيزًا -حتى لوكان ذلك بشكلٍ غير واعٍ- فستحصل على التحيز كمُخرَجٍ في الطرف الآخر“.
بينما تدعي أنظمة الذكاء الاصطناعي أنها تقيم جميع الأشخاص بنفس الطريقة للتأكد من تجنب التمييز، يجادل Frank Pasquale بأن القِيم الإنسانية والأحكام المسبقة مضمَّنةٌ في كل مرحلةٍ من مراحل التطوير. بالإضافة إلى ذلك، يشير مفهوم الصناديق السوداء إلى أنه يكاد يكون من المستحيل التأكد مما إذا كانت الخوارزمية عادلةً أم لا لكونها معقدةً للغاية وصعبة الفهم. عادةً ما يُنظر إلى أنظمة الذكاء الاصطناعي على أنها معلومات مسجلة الملكية أو محتَكرة، مع وجود قوانين تحمي أصحابها من مشاركة تعقيدات برامجهم. على سبيل المثال، رفضت المحكمة العليا في ولاية ويسكونسن طلب Eric Loomis لمراجعة آلية العمل الداخلي لخوارزمية COMPAS -المختصة بإنفاذ القانون- في عام 2016. اعتبرت الخوارزمية وقتها Loomis شديدَ الخطورة وحكمت عليه المحكمة بالسجن لمدة ست سنوات. طعن Loomis أيضًا في الحكم؛ لكون القاضي اعتمد على خوارزمية مبهمة، منتهِكًا بالتالي حقه في محاكمةٍ عادلة مع مراعاة الأصول القانونية. بالإضافة إلى ذلك، أثبت التحقيق في هذه الخوارزميات من قِبل اثنين من أساتذة القانون لفهم كيفية استخدام الدول لنظام النقاط في أنظمة العدالة الجنائية أن هذه المعلومات مخفية بموجِب اتفاقيات عدم الإفشاء. وهذا يوضح أن خوارزميات الصندوق الأسود هذه ستؤدي إلى عقوباتٍ دامغة وتمييزٍ لأنها غير خاضعة للمساءلة وتفتقر إلى الشفافية.
وعلى نحوٍ متصل، يؤدي استخدام الذكاء الاصطناعي في إنفاذ القانون إلى مفاقمة أشكال التمييز الحالية، ومثال ذلك هو استخدام برامج الشرطة التنبؤية للتنبؤ بالجرائم المحتملة والمجرمين المحتملين. ورغم كونها تقنيةً واعدة، إلا أنها تعرضت للفحص بشكلٍ متزايد لكونها تعزّز التحيّزات القائمة، فبعض أنظمة الشرطة التنبؤية مثل PredPol تقوم باستهداف مجتمعات الأقليات بشكلٍ غير عادل، مما يؤدي إلى التمييز والتنميط العنصري.
بالإضافة إلى ذلك، تَستخدم تقنية التعرف على الوجه خوارزمياتٍ لمطابقة صور وجوه الأفراد بقاعدة بياناتٍ لأشخاصٍ معروفين، مما لا يتيح لسلطات إنفاذ القانون تحديد الأشخاص فحسب، بل وكذلك تعقبهم في الوقت الفعلي. وفي حين أن تقنية التعرف على الوجه يمكن أن تمكّن سلطات إنفاذ القانون من حل الجرائم المعقدة، إلا أنها تثير أيضًا قضايا تتعلق بالحريات المدنية والخصوصية. في بعض الحالات، تخطئ هذه الخوارزميات، وتتعرف على الأشخاص بشكلٍ خاطئ، ما يؤدي إلى اتهاماتٍ باطلة واعتقالات غير مشروعة.
عمومًا ونظرًا لاستخدام جهات إنفاذ القانون لتقنيات الذكاء الاصطناعي، فهناك احتمالٌ بأن يؤدي ذلك إلى مفاقمة الظلم والتحيزات المجتمعية الحالية وإدامتها. بالإضافة إلى ذلك، يثير استخدام الذكاء الاصطناعي في إنفاذ القانون تساؤلاتٍ بشأن المساءلة والشفافية. قد يكون من الصعب للغاية فهم كيفية اتخاذ هذه الأنظمة للقرارات وكيفية عملها، مما يجعل من المهم تطوير آلياتٍ ولوائح رقابية لضمان أن يكون استخدامها أخلاقيًا وشفافًا ويحترم الحقوق والحريات الفردية.
الحق في العمل وعدم المساواة الاقتصادية
يمكن للذكاء الاصطناعي أتمتة العديد من المهام التي يقوم بها البشر حاليًا، ما يؤدي إلى إلغاء الوظائف على نطاقٍ واسع، الأمر الذي يمكن أن يكون له تأثيرٌ كبير على سبل عيش الأفراد وعلى الاقتصاد. تُعد احتمالية حدوث اضطراب اقتصادي وفقدان الوظائف إحدى التحديات الرئيسية التي تبرزها تقنية الذكاء الاصطناعي.
مع التقدم المتزايد لأنظمة الذكاء الاصطناعي، أصبح بإمكانها أداء المهام التي لم يكن يقوم بها سابقًا سوى البشر فقط. يمكن أن يؤدي هذا إلى اضطرابٍ اقتصادي في قطاعات معينة، والحاجة إلى إعادة تدريب الأفراد على أدوار جديدة، وإلغاء الوظائف. يمكن أن يؤدي الاضطراب الاقتصادي المنسوب إلى تكنولوجيا الذكاء الاصطناعي إلى زيادة انعدام الأمن المالي للموظفين. وبالتالي، يمكن أن ينشئ وضعًا يضطر فيه الناس إلى التضحية بخصوصياتهم من أجل تغطية نفقاتهم.
يشكل الذكاء الاصطناعي أيضًا تحديًا وضررًا محتملًا لشريحةٍ من القوى العاملة هي مهددة بالفعل؛ العمال غير المتعلمين وذوي المهارات المنخفضة. قياسًا على التجارب التاريخية وعلى قدرات الذكاء الاصطناعي الحالية، فثمة احتمالٌ أن يؤدي ظهور الذكاء الاصطناعي إلى إلغاء الوظائف ذات المهارات المنخفضة ووظائف المبتدئين، مما يؤدي إلى انقسامٍ أكبر بين العاملين غير المتخصصين والمتخصصين داخل المجتمع الحديث. ورغم أنه قد يتم إيجاد بعض فرص العمل الجديدة، كما حدث في الماضي، إلا أنها قد لا تكون كافيةً لإرضاء الجميع. على سبيل المثال، قد يكون العديد من موظفي المكاتب عرضةً للانتقال إلى مستوىً أقل. يثير استخدام تقنية الذكاء الاصطناعي في عملية التوظيف مخاوف كبيرة أيضًا. على سبيل المثال، تَستخدم بعض المؤسسات خوارزميات الذكاء الاصطناعي لفحص المتقدمين للوظائف، وتحليل سلوكهم عبر الإنترنت أو نشاطهم على وسائل التواصل الاجتماعي لاتخاذ قرارات بشأن مدى ملاءمتهم لدور معين. يثير هذا الأمر مخاوف بشأن دقة المعلومات المستخدمة وبشأن الخصوصية لأن المتقدمين للوظيفة قد لا يدركون أن بياناتهم هذه يتم جمعها واستخدامها بهذه الطريقة.
علاوة على ذلك، من المرجح أن تتركز فوائد الذكاء الاصطناعي في أيدي عدد قليل من الأثرياء -أفرادًا وشركات- مما قد يؤدي إلى زيادة عدم المساواة الاقتصادية، والذي يمكن أن يؤدي إلى مفاقمة الاضطرابات الاجتماعية. قدّم الذكاء الاصطناعي العديد من المنتجات والخدمات للبشرية، موجِدًا وظائف رائعةً لعلماء البيانات ومهندسي البيانات الضخمة. وبالتالي، يحصل هؤلاء الأشخاص على فرص كبيرة للارتقاء بثرواتهم. يحصل الرأسماليون أيضًا على فرص للتنمية المستقبلية من خلال الاستثمار وتشغيل رأس المال في مجالات الذكاء الاصطناعي. توضح هذه العملية ظاهرةً يصبح فيها الفرد الغني أكثر ثراءً بينما يزداد الفقير فقرًا. يجعل الذكاء الاصطناعي الثروة أكثر تركيزًا، وحدها الشركات الكبيرة فقط هي التي تمتلك القوة الاقتصادية للاستثمار في الذكاء الاصطناعي، مما يجعل رأس المال الأساس الاقتصادي لتطوير الذكاء الاصطناعي. وفي المقابل، ستسهم حقوق براءات الاختراع التي ستحصل عليها هذه الشركات الكبيرة في المستقبل في المزيد من الفوائد طويلة الأجل.
فقدان الإنسانية
مع زيادة قوة الذكاء الاصطناعي، يُخشى أنه قد يتجاوز الذكاء البشري في النهاية. قد يؤدي هذا إلى خسارة البشرية مع اتخاذ أنظمة الذكاء الاصطناعي قراراتٍ تصب في مصلحتها الخاصة، بدلاً من أن تصب في مصلحة الإنسانية.
يؤمن المتفائلون بأن الذكاء الاصطناعي هو الدواء الشافي للعديد من المشاكل الأساسية التي يعاني منها المجتمع، كانعدام المساواة والفساد والجريمة. في المقابل، يشعر المتشائمون بالقلق من أن الذكاء الاصطناعي سوف يتفوق على ذكائنا البشري وينصّب نفسه ملكًا للعالم. تنطلق وجهتا النظر كلتاهما من الافتراض بأن الذكاء الاصطناعي أكثر ذكاءً من البشر، وسيحل في النهاية محل البشر في صنع القرار. ومع ذلك، فالذكاء الاصطناعي ليس أذكى من البشر. وفقًا للنقاد، فالتهديد الحقيقي للذكاء الاصطناعي على البشرية لا يكمن في قوته، وإنما في الطريقة التي بدأ بها الناس بالفعل في استخدامه لتدمير إنسانيتنا. ورغم أنه يبدو وكأنه يتفوق على البشر، فقد وجدت الدراسات أن هذا يحدث بشكل رئيسي في المهام ذات المستوى المنخفض. لا يزال الذكاء الاصطناعي اليوم مقيدًا بالقيام بمهام متخصصة، مثل إنشاء الجمل وتصنيف الصور والتعرف على الأنماط. بينما يساعد الذكاء الاصطناعي البشر، فإنه يقلل من الفرص المتاحة للبشر لاستخدام ذكائهم وقدراتهم العقلية.
الحق في الحياة والحرية
يمكن أن يؤثر الذكاء الاصطناعي سلبًا على حياة الإنسان وأمنه وحريته. تشمل أنظمة الذكاء الاصطناعي عالية المخاطر تلك المستخدمة في البنية التحتية الحيوية، مثل النقل ووسائل المواصلات، والتي يمكن أن تعرض صحة الناس وحياتهم للخطر. بالإضافة إلى ذلك، فهي تشمل مكونات سلامة المنتجات، مثل تطبيقات الذكاء الاصطناعي في الجراحة بمساعدة الروبوت.
أثارت العديد من الدراسات قضايا تهدد الحياة حول انتشار الأنظمة الآلية والإجراءات الطبية بمساعدة الروبوت في الجراحة، وحوادث الروبوت في التصنيع، ونقاط الضعف الأمنية في مراكز تحكم المنازل الذكية والمركبات ذاتية القيادة والقيادة الآلية.
يمكن استخدام الذكاء الاصطناعي لإنشاء أسلحة ذاتية التشغيل تستطيع القتل دون تدخل بشري، الأمر الذي يزيد من مخاطر وقوع إصابات جماعية وتوسع الصراع. يمكن مثلًا استخدام الطائرات بدون طيار التي تعمل بالذكاء الاصطناعي لتنفيذ اغتيالات على أهداف محددة أو لشنّ حربٍ على مناطق واسعة، حيث تؤدي الأسلحة ذاتية التشغيل وأسراب الطائرات بدون طيار المسلحة بالذكاء الاصطناعي إلى حوادث قتلٍ جماعية.
ثمة العديد من الحالات المختلفة التي تُظهر كيف يؤثر الذكاء الاصطناعي سلبًا على الحق في الحياة وأمن الأفراد والحرية:
- الحالة 1: حادث Tesla القاتل
كانت سيارة Tesla أول سيارة مشهورة ذاتية القيادة تتعرض لحادثٍ مُميت، وذلك في مايو 2016. أدى الاصطدام بين السيارة والشاحنة القاطرة إلى وفاة الراكب/السائق على الفور، بينما لم يُصَب سائق الشاحنة بأي أذى. ذكرت Tesla أن نظام الاستشعار في السيارة فشل في تمييز الجانب الأبيض من المقطورة ذات العجلات الثمانية وهي تعبر الطريق السريع. فحصت دوريّة Florida Highway Patrol الحادث وخلصت إلى أن سائق Tesla لم يتّخذ أي إجراء مراوغ لتجنب الاصطدام. وبالمثل، فإن سائق الجرار لم يُعطِ حق الأولوية أثناء الانعطاف يسارًا. وضع السائق السيارة في وضع القيادة الذاتية في Tesla، وهو نظامٌ متقدمٌ لمساعدة السائق خلف عجلة القيادة. على الرغم من توضيح Tesla أن تصميم البرنامج المستقل كان يحفّز المستخدمين على الحفاظ على أيديهم على العجلات لضمان كونهم منتبهين، إلا أن ذلك لم يحدث في هذه الحالة وأدى إلى حدوث وفاة. وتشمل حوادث Tesla الأخرى حادثة صدم وقتل سائق اختبار Uber لأحد المشاة في عام 2018 وحادثة مقتل رجلين في تكساس بعد انحراف سيارة Tesla كانوا فيها عن الطريق واصطدامها بشجرة في عام 2021.
بينما تشير الدراسات إلى أن السيارات ذاتية القيادة أكثر أمانًا من تلك التي يقودها الإنسان، فإن هذه الحالة بجانب أمثلة أخرى توضح حجم التحديات المتعلقة بسلامة الإنسان. القضايا المهمة الأخرى التي أثيرت بشأن السيارات ذاتية القيادة تتعلق بالأمن والمسؤولية.
- الحالة 2: الثغرات الأمنية لمراكز تحكم المنزل الذكي
يمكّن مركز تحكم المنزل الذكي المُستَخدِم من التفاعل عن بُعد مع المنزل باستخدام الهاتف الذكي. ومع ذلك، فمراكز تحكم المنزل الذكي عرضةٌ للهجمات وتعاني من العديد من نقاط الضعف. يمكن للوصول غير المصرح به أن يهدّد حياة الإنسان وصحته. على سبيل المثال، يمكن أن يؤدي الاختراق أو فقدان التحكم في كاشف الدخان أو الأقفال الذكية أو منظّم الحرارة إلى تهديد حياة الإنسان وتعريضها للخطر. يمكن أن يسهّل تعرّض المنازل الذكية للتهديدات، وتواجد نقاط الضعف فيها عمليات الاقتحام والأعمال الإجرامية، مما يشكل خطرًا على حياة الناس وممتلكاتهم وأمنهم.
خاتمة
يتزايد توثيق الآثار السلبية للذكاء الاصطناعي على حياة الناس. وفي حين كان التركيز سابقًا بشكلٍ أساسي على الوظائف وعمليات التوظيف والصحة والتعليم، فإن من المهم أيضًا دراسة الآثار السلبية للذكاء الاصطناعي على حقوق الإنسان. يواصل الذكاء الاصطناعي إعادة تعريف معنى “كونك إنسانًا”. ومع ذلك، يتم تجاهل حقوق الإنسان بشكلٍ كبير في حوكمة الذكاء الاصطناعي.
تُعد حقوق الإنسان في حماية البيانات والخصوصية وحرية التعبير والمعلومات وعدم التمييز والعمل والحياة والحرية مهمةً لضمان أن تعود حوكمة الذكاء الاصطناعي بالفائدة على جميع الأشخاص. تفرض معاهدات ومبادئ حقوق الإنسان واجباتٍ على الحكومات أن تقوم بالحماية وعلى المنظمات بالامتثال لها.
بشكل عام، يجب على المنظمات الدولية والمجتمع المدني والمستثمرين والشركات والحكومات الشروع في ضمان كون حقوق الإنسان أساسًا لتطوير الذكاء الاصطناعي وحوكمته. يمكن أن تشمل بعض الجهود مناصرة حقوق الإنسان والدفاع عنها، ووضع العمليات والمعايير ذات الصلة لتنفيذ قانون حقوق الإنسان، والمناقشة الشاملة. يجب أيضًا وضع سبل الانتصاف ورد الحقوق في حالة حدوث انتهاكات.