الخصوصية وحماية البيانات

أهمية الخصوصية وحماية البيانات في أنظمة الذكاء الاصطناعي

ينبغي تطوير واستخدام أنظمة الذكاء الاصطناعي بطريقة تحترم حقوق الأفراد في الخصوصية، بما في ذلك حماية البيانات الشخصية والحق في السيطرة على استخدام المعلومات الشخصية. لقد أصبحت البيانات الشخصية سلعة عالية القيمة بشكل متزايد في العصر الرقمي. وفي حين أن القدر الكبير من البيانات الذي يتم إنتاجه ومشاركته على الإنترنت كل يوم قد مكن الحكومات والمنظمات والأعمال من التعلم وصنع قرارات أفضل، فإن هذه البيانات أيضا تحتوي على معلومات حساسة قد لا يرغب الناس في مشاركتها أو قد تستخدمها الشركات دون رضاهم.

الخصوصية حق بالغ الأهمية وهو يحمي المعلومات الشخصية ويضمن أن تبقى سرية ومحمية من الوصول غير المصرح به. وهي حق إنساني ضروري يمنح الناس السيطرة على بيانات الشخصية. ومع استمرار حجم البيانات في النمو، أصبحت الخصوصية أكثر أهمية من أي وقت مضى.

تحمي الخصوصية أولا الناس من أضرار نشر وتطوير الذكاء الاصطناعي. وهي أيضا تصون استقلالية الأفراد وسيطرتهم على معلوماتهم الشخصية. إضافة إلى ذلك، فحماية الخصوصية والبيانات مهمين لتمكين الأفراد من الحفاظ على علاقاتهم المهنية والشخصية دون خوف من التدخل أو المراقبة. وأخيرا، تحمي إجراءات حماية البيانات والخصوصية في نظم الذكاء الاصطناعي حرية الإرادة لدى الناس. فعلى سبيل المثال، إذا ما كانت كل البيانات متاحة في العلن، يمكن لماكينات توصية الذكاء الاصطناعي السامة أن تحلل البيانات وتستخدمها لاستغلال الناس ودفعهم لصنع قرارات بعينها. من ثم، فالخصوصية ضرورية في سياق الذكاء الاصطناعي لضمان ألا تستخدم النظم لاستغلال الناس أو للتمييز ضدهم بناء على بياناتهم. وينبغي لنظم الذكاء الاصطناعي التي تعتمد على البيانات الشخصية لصنع القرارات أن تكون قابلة للمحاسبة وشفافة لضمان أنها لن تتخذ قرارات منحازة أو غير منصفة. وبينما يستمر الذكاء الاصطناعي في الانتشار والتغلغل في حياة الناس، فمن المهم أن نظل متنبهين لحماية الخصوصية لضمان أن التكنولوجيا تستخدم بشكل مسؤول وأخلاقي.

كيف يمكن لافتقاد الخصوصية وحماية البيانات أن يضر بالأفراد والجماعات

يمثل الذكاء الاصطناعي تحديا لخصوصية الأفراد والمنظمات نتيجة لتعقيد الخوارزميات التي تنشرها نظم الذكاء الاصطناعي. ويعني تقدم الذكاء الاصطناعي أن بإمكانه اتخاذ قرارات بناء على أنماط بالبيانات خفية عن البشر ولا يمكنهم إدراكها. وهذا يعني أن الناس والجماعات قد لا تكون حتى قادرة على فهم أن بياناتهم الشخصية يتم استخدامها لصنع قرارات تؤثر عليهم. وبرغم أن الذكاء الاصطناعي يوفر منافع متنوعة، فإن استخدامه أيضا يمثل العديد من التحديات. ويحتمل أن يتم استخدامه للتعدي على الخصوصية.

تحتاج نظم الذكاء الاصطناعي إلى كميات ضخمة من البيانات الشخصية، وإذا ما أمكن لمثل هذه البيانات أن تقع في الأيدي الخاطئة، فيمكن استخدامها لأغراض خبيثة، بما في ذلك التنمر السيبراني وسرقة الهوية. ثمة أيضا تحد خطير آخر وهو احتمال أن تسيء جهات إجرامية استخدام البيانات. ويمكن نشر الذكاء الاصطناعي لخلق فيديوهات وصور زائفة مقنعة (الزيف العميق Deepfake)، والتي يمكن أن تنشر معلومات زائفة أو تضلل الرأي العام. إضافة إلى ذلك يمكن استخدام الذكاء الاصطناعي لخلق هجمات احتيال عالية التعقيد والتي يمكن أن تخدع الناس فيكشفون عن معلومات حساسة أو يتبعون روابط خبيثة.

يمكن لخلق ونشر الصور والفيديوهات الزائفة أن يؤدي إلى عواقب خطيرة ضارة بالخصوصية. ذلك أن هذه الوسائط المصطنعة عادة ما تظهر أشخاصا حقيقيين قد لا يكونون قد وافقوا/ارتضوا على استخدام صورهم بهذه الطريقة. وقد يؤدي ذلك إلى مواقف يضر فيها نشر الوسائط الزائفة بالأفراد، سواء من خلال نشر معلومات ضارة أو زائفة بخصوصهم أو استخدامها بطريقة تتعدى على خصوصيتهم.

إضافة إلى ذلك، تتعرض المعلومات الخاصة للخطر نتيجة الحجم الضخم من البيانات التي يتم جمعها. أحد المشاكل هي المراقبة المتغولة التي يمكن أن تتعدى على الاستقلالية الشخصية وتزيد عدم التوازن في القوة سوءا، وكذلك الجمع غير المصرح به للبيانات، والذي يمكن أن يخل بالبيانات الحساسة للأفراد ويترك الناس عرضة للهجمات السيبرانية. كذلك تزيد سلطة شركات التكنولوجيا الكبرى من تعقيد هذه المشاكل.

أمثلة على النتائج الضارة للافتقار إلى الخصوصية وحماية البيانات في نظم الذكاء الاصطناعي

تعقب جوجل للمواقع: تعرضت ممارسات جوجل لتعقب المواقع إلى كثير ومن التمحيص النقدي مؤخرا. فجوجل تتعقب موقع مستخدميها حتى في غياب إذن صريح بمشاركته. تم اكتشاف ذلك في عام 2018 عندما أثبت تحقيق للأسوشيتد برس أن جوجل قد استمرت في تخزين بيانات الموقع حتى بعد إيقاف المستخدمين لخاصية تعقب المواقع. وهي بذلك قد خرقت خصوصية وثقة المستخدم بوضوح وهو ما أدي إلى رد فعل من المدافعين عن الخصوصية ومن المستخدمين.

ويؤدي هذا إلى عواقب متنوعة، نظرا لأن جوجل واحدة من كبرى شركات التكنولوجيا في العالم. فالمشكلة الأولى هي احتمال إساءة استخدام البيانات الشخصية. فبيانات الموقع تكون عادة حساسة، وفي حال وقعت في الأيدي الخاطئة، يمكن أن تستخدم لتعقب حركة الناس ومراقبة سلوكهم، كما يمكن استخدامها لأغراض إجرامية. ثمة أيضا تحد يتمثل في إمكانية وصول طرف ثالث إلى بيانات المستخدم والتي يمكن استخدامها لأغراض الإعلان أو حتى بيعها إلى شركات أخرى بغرض الربح.

كليرفيو للذكاء الاصطناعي: هي شركة أمريكية متخصصة في تكنولوجيا التعرف على الوجوه وهي تقدم برمجياتها إلى الشركات وجهات إنفاذ القانون، والأفراد. وتطابق خوارزمية الشركة الوجوه مع قاعدة بيانات فيها أكثر من 30 مليار صورة مأخوذة من الإنترنت بما في ذلك تطبيقات التواصل الاجتماعي وذلك دون معرفة أو موافقة الناس. وتسمح البرمجية لمستخدميها برفع صورة شخص ثم تمدهم بصور منشورة علنا لهذا الشخص، إضافة إلى روابط لحيث ظهرت هذه الصور. وقد انتُقدت تكنولوجيا كليرفيو للذكاء الاصطناعي لعواقبها على الخصوصية حيث أنها قد جمعت صور أشخاص دون موافقتهم. وقد اتهمت الشركة بانتهاك قوانين الخصوصية في عديد من البلدان.

التوصيات المدعومة بالذكاء الاصطناعي: هذا النوع من نظم التوصيات يستخدم الذكاء الاصطناعي لتوليد توصيات مشخصنة للمستخدمين. ويمكن أن تستخدم شركات التكنولوجيا الكبرى هذا النظام بطرق تتغول على الخصوصية. فعلى سبيل المثال، إذا ما شاهد شخص عرض لأمازون برايم على تلفزيون آبل، ثمة احتمال لأن يصل إليه توصيات بأخبار ذات صلة بالعرض على تطبيق جوجل على الآيفون، برغم أنه لم يشاهد العرض باستخدام الآيفون. وتثير حقيقة أن بإمكان الشركة أن تقدم توصيات مشخصنة بناء على أنشطة غير متصلة ببعضها مخاوف حول إمكان وصولها إلى بيانات خاصة.

توصيات لضمان الخصوصية وحماية البيانات في أنظمة الذكاء الاصطناعي

أولوية الاعتبارات الأخلاقية والخصوصية: ينبغي على الشركات التي تطور/تنشر الذكاء الاصطناعي أن تعطى الأولوية للاعتبارات الأخلاقية في تصميم وتنفيذ نظم الذكاء الاصطناعي. وهذا يشمل الشفافية بخصوص جمع واستخدام البيانات، مما يضمن أمن البيانات، وتصميم نظم تلتزم بالمبادئ الأخلاقية. ويمكن لمثل هذه الشركات أن تطور الثقة مع عملائها، وأن تطور علاقات أقوى بأصحاب المصلحة، وأن تتجنب أضرار الغرامات.

سياسات بيانات قوية: ينبغي أن تعطي الشركات الأولوية لسياسات حماية البيانات وتتبناها. فهذا يمكن أن يساعد على ضمان أن يحترم تطوير واستخدام تكنولوجيا الذكاء الاصطناعي خصوصية الأفراد، والمنظمات والحكومات. فعلى سبيل المثال، ينبغي أن تطور الحكومات وتنفذ تنظيمات تضمن أن تطوير واستخدام الذكاء الاصطناعي يحمي البيانات ويعطي الأولوية للخصوصية. وينبغي للمنظمات أيضا أن تعطي الأولوية للخصوصية كقيمة رئيسية وأن تتبنى سياسات حماية بيانات قوية لبياناتها الشخصية.

المستهلكون: برغم أن مسؤولية حماية البيانات هي دور عديد من الجهات، بما في ذلك الشركات والأفراد والحكومات، إلا أن على المستهلكين أن يكون لهم دور نشط في حماية معلوماتهم الشخصية. ويمكن للمستهلكين من خلال المعرفة، واستخدام أدوات وإعدادات الخصوصية، والحرص في أنشطتهم على الإنترنت، أن يلعبوا دورا أساسيا في حماية خصوصيتهم في عصر الذكاء الاصطناعي.