التقنية والمساواة
الحلقة (6): بيانات عنصرية.. كيف يمكن لبرامج الذكاء الاصطناعي أن تكون مُتحيّزة؟
حلقة عن خطورة الاعتماد على برمجيات الذكاء الاصطناعي في اتخاذ القرارات الهامة التي تؤثر على الأفراد والمجتمعات، كمثال، تعرض الحلقة مثالين؛ تطبيق أمازون للتوظيف و قاعدة بيانات السجل الجنائي في أمريكا.
الحلقة (5) : جوي والمرآة الملهمة.. كيف يمكن للخوارزميات أن تكون عنصرية؟
جوي بولامويني، الباحثة والناشطة في الحقوق الرقمية، تكتشف صدفة أن مجموعة من تطبيقات التعرُّف على الوجوه لا تستطيع التعرُّف على ذوي البشرة الداكنة خاصة النساء. فيلم (Coded Bias) الذي يُوثّق تجربة جوي، متاح على نتفلكس. تعرّفوا/ن على جوي وقصتها في الحلقة الخامسة من بودكاست “كُونِّكت” من مسار – مجتمع التقنية والقانون.
- « الصفحة السابقة
- 1
- 2
- 3
- 4