الآثار السلبية للذكاء الاصطناعي

لا يخفى على أحدٍ اليوم أن التكنولوجيا تنمو بشكلٍ مذهلٍ بمرور الوقت، وأن العديد من الأدوات الجديدة متعددة الاستخدام تولّد كل يوم، مسهمةً في تسهيل مهام لا حصر لها للبشرية.

إحدى هذه الأدوات، هي أداة تكنولوجية تطورت كثيرًا في الآونة الأخيرة، ورغم كونها لم تكن أكثر من مجرد حلمٍ بعيد أو خيالٍ علمي حتى عقود قليلة مضت، إلا أننا اليوم يمكننا رؤيتها كحقيقة مخيفة بشكل متزايد. تلك الأداة هي الذكاء الاصطناعي.

يمكن تعريف الذكاء الاصطناعي، كما قال جون مكارثي والد الذكاء الاصطناعيفي ورقة علمية عام 2004، على أنه علم وهندسة صناعة الآلات الذكية، وخاصة برامج الكمبيوتر الذكية. إنه مرتبط بالمهمة المتمثلة في استخدام أجهزة الكمبيوتر لفهم الذكاء البشري، لكن لا يتعين على الذكاء الاصطناعي أن يقتصر على الأساليب التي يمكن ملاحظتها بيولوجيًا“.

يسمح لنا الذكاء الاصطناعي اليوم بمعالجة كميات كبيرة من البيانات بسرعة. تساعد هذه الحسابات على فهم اتجاهات السوق والرأي العام والتغيرات الجوية. شهد تطبيق الذكاء الاصطناعي على الروبوتات تطورات كبيرة في الطب والاتصالات السلكية واللاسلكية وأتمتة المنزل. لقد غيرت تطبيقات الذكاء الاصطناعي هذه حياتنا اليومية ومنازلنا وتفاعلاتنا مع الآخرين، ومع ذلك؛ يوصّف الذكاء الاصطناعي الموجود حاليًا بأنه ضيق أو ضعيف لأن جزءًا صغيرًا فقط من إمكاناته هو ما يتم استغلاله.

لا تزال هذه الأداة التكنولوجية قيد التطوير، وعلى الرغم من أن تحقيق اكتمالها بنجاح سيكون أحد أعظم الإنجازات في تاريخ البشرية، إلا أن ذلك لن يكون بالضرورة لصالحنا. فرغم أن الذكاء الاصطناعي يمكن استخدامه لإنهاء الحروب أو القضاء على الأمراض، إلا أن بإمكانه كذلك إنشاء آلات قتل مستقلة أو زيادة البطالة أو تسهيل الهجمات الإرهابية.

تلقي هذه الورقة الضوء على أكبر المخاطر والآثار السلبية المحيطة بالذكاء الاصطناعي، والتي يخشى الكثيرون أنها توشك أن تصبح حقيقةً واقعية، وتشمل هذه الآثار السلبية: البطالة، والتحيز، والإرهاب، والمخاطر المتعلقة بالخصوصية، والتي ستناقشها هذه الورقة بالتفصيل.

1. الذكاء الاصطناعي والبطالة:

وفقًا لتقرير منظمة التعاون الاقتصادي والتنمية، فحتى مع التطور المنخفض للذكاء الاصطناعي حاليًا، يمكن أن تتأثر 14٪ من الوظائف في العالم بظهور الذكاء الاصطناعي.

توضح المنظمة أن بعض المهن تميل إلى التأثر بالذكاء الاصطناعي أكثر من غيرها. وقد أنشأت فئات لشرح هذا التأثير، من الأقل تعرضًاإلى الأكثر تعرضًا“. لن يتم بالتأكيد استبدال تلك الوظائف التي تندرج تحت فئة الأكثر تعرضًابالذكاء الاصطناعي، ولكنها ستتعرض للتأثير الأكبر.

يسلط التقرير الضوء أيضًا على بعض المجالات التي تندرج تحت الفئة الأكثر تعرضًا، وهي في الغالب وظائف تتطلب أشخاصًا ذوي مهارات عالية يشاركون في وظائف فنية مثل فنيي المختبرات السريرية وفنيي البصريات والمهندسين الكيميائيين.

ومع ذلك، فقد لُوحّظ أيضًا جانبٌ إيجابيٌ لجلب الذكاء الاصطناعي إلى هذه الوظائف، إذ لاحظ الأشخاص المنخرطون في وظائف الفئة الأكثر تعرضًا، حدوث تغييرٍ كبير في الطريقة التي يؤدون بها وظائفهم الآن؛ أدى هذا التغيير إلى جعل وظائفهم اليدوية أسهل وأدى كذلك إلى زيادة في الأجور وفي التعليم. وقد وُجِّد أيضًا أن الذكاء الاصطناعي في الوقت الحالي ليس قريبًا من استبدال القوى العاملة ولكنه يضيف إلى إنتاجية العمال. وبالتالي، فيمكن ملاحظة أن الدراسات التي قدمتها منظمة التعاون الاقتصادي والتنمية لا تزال منقسمة بشأن تأثير الذكاء الاصطناعي على التوظيف والأجور.

ختامًا؛ لا يزال هناك عالمٌ كاملٌ من عدم اليقين بشأن تأثيرٍ محتملٍ لذكاءٍ اصطناعي أكثرَ تطورًا على العرض والطلب على الوظائف. هناك احتمال أن يعني هذا مزيدًا من الإنتاجية ورواتبَ أعلى للبعض، ولكن من ناحية أخرى، فإن الخطر الذي سيترتب على البعض الآخر سيكون ملموسًا إذا سُمِّح بأتمتة عمليات معينة، مما يجعل تدخل الإنسان فيها محدودًا، ما يعني إنهاء وظائفهم.

2. الذكاء الاصطناعي والتحيز:

بشكل عام، فالتحيز هو سلوكٌ تمييزي أو تحاملٌ موجود في شخص ما، وبما أن الذكاء الاصطناعي من صنع البشر؛ فهو لا يخلو من التحيز. أثناء البرمجة، قد ينشئ المبرمجون خوارزمية تحمل التحيزات الشخصية الخاصة بهم. قد يفعلون ذلك بوعيٍ أو دون وعي، ولكن في كلتا الحالتين، يمكن ملاحظة مدىً معينٍ من هذا التحيز في الخوارزمية، مما يجعلها غير عادلة.

يمكن للتحيز أن يجد طريقه إلى أنظمة الذكاء الاصطناعي بعدة طرق من خلال خوارزمياتها. تتعلم أنظمة الذكاء الاصطناعي من بيانات التدريب، والتي تتعلم من خلالها اتخاذ القرارات. قد تحتوي هذه البيانات على قراراتٍ بشرية متحيزة أو تمثل عدم مساواة تاريخية أو اجتماعية. وهكذا، يمكن أن يدخل التحيز مباشرةً من برمجة الإنسان الذي يصمم النظام، بناءً على تحيزاته الخاصة.

وبالمثل، وبسبب نقص التمثيل، فقد يكون هناك تحيز، إذ أن الذكاء الاصطناعي لن يتعرف على تجارب أولئك الذين ليسوا جزءًا من البرمجة؛ وبالتالي سيكون متحيزًا ضد مجموعة معينة من السكان، أي أنه لن يكون شاملًا.

لا يُقصّد هنا إنكار إمكانية تطوير نظام ذكاءٍ اصطناعيٍ خالٍ تمامًا من التحيز؛ لأنّ من الممكن فعلًا بناء نظام يتخذ قرارات محايدة بناءً على البيانات، لكنه لن يكون محايدًا إلا بقدر جودة البيانات المدخلة فيه، وبالتالي لا يُتوقّع أن يصل الذكاء الاصطناعي إلى مستوى الحياد التام في أي وقت قريب.

يمكن تنفيذ تدابير مختلفة للحد من التحيز في أنظمة الذكاء الاصطناعي، مثل:

  • اختيار مجموعة البيانات.

  • بناء فرق متنوعة.

  • أن يكون شموليًا أكثر، مما يؤدي إلى خوارزمية شاملة وإلى تقليل تحيز الاستبعاد.

  • خلق الوعي حول الذكاء الاصطناعي وعمله، وكيف يمكن له أن يتبع نمطًا متحيزًا دون وعي. إذا تم ملاحظة ذلك، فيمكن تعديله.

  • يجب أن تتعامل المؤسسات التي تنشئ الخوارزميات بشفافية أكثر فيما يتعلق بالطرق المستخدمة من قبلهم لجمع البيانات التي ستتم البرمجة على أساسها. بهذه الطريقة، يمكن تحديد سبب التحيز.

ومن الممارسات الأخرى التي يمكن تبنيها، بالإضافة إلى ما سبق، تطبيق الاختبار المعروف بالتذوق الأعمى“. هذا يعني أن يرفض المبرمجون ما يعرفون أنه متحيز بالفعل، ما سيسمح للذكاء الاصطناعي بإصدار حكم خاص به والعمل بشكل طبيعي. بالإضافة إلى كل ذلك، ثمة العديد من الأدوات التكنولوجية الأخرى التي تم تصميمها لتقليل التحيز في نماذج التعلم أو الخوارزميات.

3. الذكاء الاصطناعي والإرهاب:

الإرهاب، على وجه الخصوص، تطور مع الإنترنت والشبكات الاجتماعية، التي أصبحت لا غنى عنها بالنسبة لهم؛ سواء كان ذلك لتجنيد المتابعين أو شراء الأسلحة أو نشر رسائل الكراهية أو البرامج التعليمية وغيرها. كما تم استخدامه لإنشاء أسلحة لاستهداف مجموعة ما على وجه التحديد عن طريق التعرف عليها والقيام بالهجمات ضدها.

لجأت الجماعات الإرهابية إلى الذكاء الاصطناعي لأنه زاد من انتشارها وسرعتها؛ فهو يسمح لها بتوسيع نطاق أنشطتها وقد أثبت أيضًا أنه مفيد لأغراض التجنيد.

أصدر مكتب الأمم المتحدة لمكافحة الإرهاب تقريرًا عن استخدام الذكاء الاصطناعي من قبل الجماعات الإرهابية. يذكر التقرير أن الإرهابيين لطالما اختاروا أن يكونوا من أوائل من تبنوا التقنيات الجديدة، خاصة عندما تظهر دون أن تكون منظمةً أو محكومةً بدرجةٍ عالية. وبالتالي، بينما يتم تطوير أدوات تكنولوجية جديدة تسعى إلى جعلنا نتطور كبشر، أو تساعد في تنميتنا أو الحفاظ على وجودنا كجنس بشري، يحصل الإرهابيون أيضًا على أدوات جديدة للتلاعب بها واستخدامها كأسلحة لنشر الرعب، والذكاء الاصطناعي ليس استثناءً.

قائمة الاستخدامات المحتملة الضارة للذكاء الاصطناعي كبيرة وواسعة، ومن بينها ما يلي:

  • تعزيز القدرات السيبرانية لهجمات حجب الخدمة.

  • استغلال الذكاء الاصطناعي من قبل مطوري البرمجيات الخبيثة.

  • دمج الذكاء الاصطناعي في برامج الفدية.

  • جعل تخمين كلمات المرور أسهل.

  • كسر برمجيات حروف التحقق (CAPTCHA) وتجاوزها.

  • استخدام مركبات ذاتية القيادة في الهجمات الإرهابية.

  • استخدام طائرات بدون طيار مع خاصية التعرف على الوجه.

  • الأسلحة البيولوجية المستهدفة وراثيًا.

ومن ناحية أخرى، لا يمكن إنكار إمكانية استخدام الذكاء الاصطناعي بشكلٍ مسؤول لمكافحة الإرهاب والتطرف. إذ ساعد الذكاء الاصطناعي بشكلٍ خاص في تنفيذ هجمات مكافحة الإرهاب بسبب قدرته على التنبؤ بالحركات الإرهابية. كما يتم تعقب الجماعات الإرهابية عن طريق استخدام التكنولوجيا التي تستخدمها هذه الجماعات الإرهابية لتنفيذ الهجمات، وبالتالي منع عملياتهم المخطط لها مسبقًا إلى حدٍ ما.

لذلك، يمكن القول إن للذكاء الاصطناعي اليوم ومستقبلًا أهمية كبيرة فيما يتعلق بالإرهاب، سواء بشكل إيجابي أو سلبي. سيعتمد كل شيء على التطوير والتطبيق، ومن بإمكانه الوصول إلى هذه الأنظمة، ومدى فعالية وكفاءة الحكومات في تنظيم استخدامها.

4. الذكاء الاصطناعي والخصوصية:

بقدر اتساع نطاق الأدوات أو التطبيقات التي ينطوي عليها الذكاء الاصطناعي بقدر ما يكبر أيضًا عدد المشكلات أو المخاطر التي يمكن أن تسببها. إحدى أكبر المخاوف من الذكاء الاصطناعي هي الخصوصية. الاعتماد على الذكاء الاصطناعي جعل الابتعاد عنه أمر مستحيل. ففي جميع المناطق الجغرافية حول العالم، جعلنا انتشار التكنولوجيا على اتصالٍ بالذكاء الاصطناعي.

لقد زاد الذكاء الاصطناعي من المراقبة، واتخذ شكل الأخ الأكبرلأنه يراقبنا دائمًا ويتتبع البيانات التي نستهلكها. فعلى سبيل المثال، عندما نبحث عن أحذية عبر الإنترنت على أحد مواقع التجارة الإلكترونية ثم ننتقل إلى أحد تطبيقات وسائل التواصل الاجتماعية، نرى على الفور إعلانات الأحذية على تلك المنصة. وبالتالي، فالذكاء الاصطناعي يلعب دورًا كذلك في تشكيل قراراتنا. كما أنه يقتحم مساحاتنا الخاصة، إذ تعمل الأجهزة مثل مكبرات الصوت الذكية في المنزل، مثل Alexa وGoogle Home، على الأوامر الصوتية، وتعرف ما يفعله المرء كل يوم. وتستخدم الهواتف كذلك خاصية التعرف على بصمة العين والبيانات البيومترية. لذلك، فللذكاء الاصطناعي القدرة على الوصول إلى كل تفاصيلنا الشخصية.

إن معرفتنا بكل الإمكانات والمخاطر التي ينطوي عليها الذكاء الاصطناعي، تجعل من الضروري إخضاعه لأشد معايير التنظيم والتدقيق صرامةً، معطيًا الأولوية دائمًا في تطبيقه لحماية حقوق الإنسان، ومن بينها الحق في الخصوصية.

وفيما يتعلق بالقرصنة، يُعد الذكاء الاصطناعي أيضًا سلاحًا ذا حدين، إذ يمكن أن يعني حلًا لمشاكل الأمن السيبراني، وتحسين أدوات مكافحة الفيروسات، وتسهيل التعرف على الهجمات، وأتمتة تحليل الشبكات والأنظمة، والمسح الإلكتروني، ولكن يمكنه كذلك أن يصبح أداة مفيدة جدًا للقراصنة والمخترقين.

كيف؟

يساعد الذكاء الاصطناعي المتسللين على أن يصبحوا أكثر ذكاءً بشأن الطريقة التي ينفذون بها أنشطتهم الإجرامية. على سبيل المثال، أصبح يتم استخدام الذكاء الاصطناعي لإخفاء الأكواد الخاطئة، ما يعني أن البرامج الضارة لن تهاجِّم فور تنزيل التطبيق، ولكن بعد فترة زمنية معينة أو عندما يتم تنزيل التطبيق من قبل عدد معين من الأشخاص، وحتى ذلك الحين، ستظل البرامج الضارة كامنةً محميةً بواسطة الذكاء الاصطناعي.

لا يسمح الذكاء الاصطناعي للبرامج الضارة بالبقاء مخفية وغير مكتشفة فحسب، بل يمكن استخدامه أيضًا لإنشاء برامج ضارة تحاكي وتقلد البرامج موثوقة المصدر، وتكون لديها القدرة على التكاثر الذاتي. ويمكن استخدامه أيضًا لإنشاء هويات مزيفة للأشخاص، فروبوتات Instagram على سبيل المثال، هي من صُنع الذكاء الاصطناعي.

في الختام، سيكون الذكاء الاصطناعي عنصرًا آخر يجب أخذه في الاعتبار في السباق التكنولوجي بين المخترقين ومبرمجي أنظمة الأمن السيبراني، والذي سيرفع هذا السباق إلى مستوى أعلى بكثير من المستوى الحالي، موفرًا إمكانيات لا حصر لها لكلا الجانبين لتطوير أدوات جديدة.

5. الذكاء الاصطناعي وحرية الرأي والتعبير:

اليوم، نتلقى معظم المعلومات عبر الإنترنت أو عبر وسائل التواصل الاجتماعي. يمكن لمنصات التواصل الاجتماعية أو الأطراف الوسطاء التحكم في ما نستهلكه، ولذلك، فإننا في بعض الأحيان لا نكون قادرين على اتخاذ قرار مستنير بسبب السرد المتحيز المقدّم لنا من هذه المنصات، ما يؤثر على حريتنا في الكلام والتعبير. وعلى الرغم من أن هذه القضايا تبدو للوهلة الأولى غير ذات صلة، إلا أن نظرةً مقربةً فاحصة تكشف العلاقة الوثيقة بين الذكاء الاصطناعي وحرية التعبير.

في الوقت الحالي، تشكّل الأدوات التكنولوجية الطريقة التي يتفاعل بها الناس مع المعلومات وطريقة وصولهم إليها وممارستهم حريتهم في التعبير. يمكن أن يؤثر الذكاء الاصطناعي على كيفية تنفيذ الأشخاص لهذه الأنشطة، من خلال محركات البحث أو شبكات التواصل الاجتماعية، على سبيل المثال.

وبالمثل، فيما يتعلق بالوصول إلى المعلومات التي يبني الأشخاص اعتمادًا عليها أفكارهم الخاصة، فإن الذكاء الاصطناعي والخوارزميات لها تأثير كبير على إمداد الأخبار، صانعةً بطريقةٍ أو بأخرى، آراء وقرارات مجتمعات بأكملها بناءً على رغبات مبرمجيها.

وهذا هو السبب في وجود الخطر الكامن المتمثل في كون مجموعة صغيرة من الشركات هي التي تتلاعب، باستخدام أنظمة الذكاء الاصطناعي، بالمعلومات التي يتم نشرها عبر المواقع الإخبارية ورسائل البريد الإلكتروني وشبكات التواصل الاجتماعي، وغيرها.

وهذا أمر مقلق، خصوصًا حين نتحدث عن أنظمة الذكاء الاصطناعي ذات الشفافية القليلة أو معدومة الشفافية، والتي يمكن أن تستبعد أو تؤكد المعلومات الهامة أو الحساسة بشكل انتقائي، وبالتالي التلاعب في عملية صنع القرار في مجتمعٍ ما من جذورها، المجتمع الذي يمكن أن يكون كبيرًا كمدينة أو بلد أو قارة بأكملها.

دراسة حالة: منصات التواصل الاجتماعي والذكاء الاصطناعي

كما تم التأكيد عليه في هذه الورقة، فإن الفائدة الإيجابية التي يمكن أن يتمتع بها الذكاء الاصطناعي تعتمد على نوايا وأساليب مطوريها ومستخدميها، الذين يمكن أن يكونوا إما جماعة إرهابية، أو منظمة غير حكومية تراقب أوضاع حقوق الإنسان.

يمكن نقل ذلك إلى الطريقة التي تتعامل بها شبكات التواصل الاجتماعية مع رسائل الكراهية أو المعلومات المضللة التي يمكن أن تنتشر من خلالها بواسطة أنظمة الذكاء الاصطناعي. إحدى الحالات المتكررة في الشكاوى هي تلك الخاصة بشبكة التواصل الاجتماعي فيسبوك (Facebook)، التي طورتها الشركة التي أعيدت تسميتها لتصبح الآن ميتا (Meta)، حيث برر المتحدثون باسمها مرارًا استخدام خوارزمياتها بحجة أنها تساعد في مكافحة المشاكل المذكورة.

على العكس من ذلك، نشرت مؤسسة The London Story Foundation نتائجها حول كيفية قيام نموذج أعمال فيسبوك بتمكين الوباء المعلوماتيلـ COVID-19 في هولندا، لإعطاء مثال واحد فقط من بين عديد الانتقادات الواسعة التي تم نشرها.

وبحسب الدراسة، فإن فيسبوك وبدلًا من مكافحة المعلومات المضللة ورسائل الكراهية، فإنه يساهم في هذه المشاكل، على الأقل عن طريق عدم تدخله بشكلٍ فعال. في أعقاب جائحة كوفيد١٩، قدّم فيسبوك سياسةً للحد من المعلومات المضللة. ومع ذلك، لم يكن فيسبوك قادرًا على تنفيذ هذه السياسة، وبالتالي سمح بنشر معلوماتٍ مضللة على المنصة على نطاق واسع. لم يؤثر ذلك على حياة الناس فحسب، بل تم الإبلاغ أيضًا عن تأثر الحملات الانتخابية في هولندا بشدة. كانت الأخبار الكاذبة إلى جانب المعلومات المضللة ضمن العوامل التي ساعدت السياسيين اليمينيين المتطرفين على حشد الأصوات.

يسلط التقرير الضوء أيضًا على الطريقة التي أدت بها المعلومات المضللة الخاصة بكوفيد١٩ إلى عدم الثقة في تدابير كوفيد١٩ التي اعتمدتها الحكومة الهولندية، مما أدى إلى حملات مكافحة اللقاحات والأقنعة، محولًا كوفيد١٩ إلى خدعة“.

ووفقًا لنتائج الدراسة، فيبدو أن المشكلة ليست بسبب فشل أو ضعف تطوير الذكاء الاصطناعي الذي تحدد (ميتا) من خلاله هذه الرسائل التي التزمت الشركة صراحةً بإزالتها وتقليلها، بل هي بسبب كون نشر هذه الرسائل هو من مصلحة الشركة، التي بالإضافة إلى كونها تتلاعب بالرأي العام، فهي كذلك تدرّ عليها إيرادات كبيرة، كما تفعل معظم الشركات على وسائل التواصل الاجتماعي هذه الأيام.

هذه هي النية التي يمكن على الأقل استخلاصها من خوارزمياتها، والتي تضخم الروايات المستقطبة ولا تفرض الرقابة على المعلومات المضللة. لهذا السبب، في حالة فيسبوك، فالذكاء الاصطناعي لا يفشل إلا بالقدر الذي لا يكون فيه لدى الشركة التزام حقيقي بمكافحة رسائل الكراهية والمعلومات المضللة، بل إن (ميتا) هي التي تضع، من خلال برمجة نظام الذكاء الاصطناعي بهذه الطريقة، حدودًا تعتبر عامةً جدًا لدرجة أن هذه الإخفاقاتتتضمن تعديل المحتوى على الشبكة الاجتماعية، خاصةً عندما يكون المحتوى المذكور بلغةٍ غير الإنجليزية.

الخاتمة

لم نكتشف بعد المخاطر الدقيقة المرتبطة بالذكاء الاصطناعي وكيف ستؤثر على حياتنا، هناك الكثير مما يتعين القيام به فيما يتعلق بلوائحها واستخدامها من قبل الحكومات والمنظمات الخاصة والأفراد. حتى الآن، لا يزال الرأي العام والاستجابات التنظيمية ضعيفة نسبيًا.

في حين أن الابتكار أمر جيد، فقد ثبت أيضًا أنه ضارٌ أحيانًا. ليس الذكاء الاصطناعي موجودًا من تلقاء نفسه، بل يتعين على شخصٍ ما برمجته وتدريبه واستخدامه. يمكن جعله يتشكل بأي طريقة نصنعه بها، إذ يمكننا التحكم فيه إلى حد معين. فيمكن له أن يكون قوةً إيجابيةً في التعامل مع الأزمات الاقتصادية وتغير المناخ والوباء، ومن ناحية أخرى، إذا كانت هذه البرامج سيئة التصميم أو التدريب أو الاستخدام، فقد تكون خطيرة جدًا.

يمكنك العثور على العديد من مزايا وعيوب الذكاء الاصطناعي، مما يجعلها قضية مثيرة للجدل في بعض الأحيان وتتطلب تحليلًا عميقًا، من منظور نفعيٍ وأخلاقي.

حاليًا، يبدو من الواضح أن مزايا استخدام الذكاء الاصطناعي أكبر من عيوبه. ومع ذلك، فمن الواضح أيضًا أن المهندسين والمصممين، بل والمجتمع ككل، يجب أن يأخذوا في الاعتبار العيوب المذكورة أعلاه من أجل مواجهتها بالعمق والصلابة التي يتطلبها الموضوع. الذكاء الاصطناعي موجودٌ هنا، وهو موجودٌ ليبقى، وشيئًا فشيئًا، يتغلغل في المزيد والمزيد من مساحات حياتنا اليومية.

يعتبر التحقيق في القيود الأخلاقية لتصميم النظام الذكي خطوة مهمة، ولكنها لا تكفي. إذا كنا محاطين بالفعل بـ مجتمع من الوكلاء الاصطناعيين، فإننا يجب أن نفكر أيضًا في طريقة التنظيم الأخلاقية للعلاقات الاجتماعية بيننا وبين الأنظمة الذكية.

ليس من السهل القيام بالاختيار الأخلاقي. على الصعيد العالمي، في نظام مكوّنٍ من آلاف أو ملايين الأجزاء من البرامج الذكية، فإن المشكلة التي تتكرر في التكنولوجيا هي واحدة من المعضلات الكلاسيكية للتعايش البشري في المجتمع.

للتخفيف من المخاطر الأخلاقية للذكاء الاصطناعي، نحتاج إلى القيام بدور أكثر فاعلية في تطويره. يمكن الاستجابة لهذه التحديات من خلال النزعة الإنسانية للتكنولوجيا، التي تضع الإنسان في صميم الجهود. وعلى الرغم من أن هذا يبدو متناقضًا؛ إلا أنك إذا كنت تريد أن تضع الإنسان في مركز الاهتمامات المتعلقة بالذكاء الاصطناعي في حياتنا، فإننا لا يمكننا أن نفشل في تصميم سياسة روبوت توجه تطورنا بطريقة تنافسية وصارمة وشاملة في نفس الوقت. يعمل هذا على تقليل الفجوات لا بين الإنسان والآلة فحسب، بل وبين الأشخاص أنفسهم.