مقدمة
توجهت أنظار الكثيرين في الآونة الأخيرة إلى احتمال أن يؤدي الاستخدام الكثيف للتكنولوجيا الرقمية إلى فقدان العمال لوظائفهم نتيجة لاستبدالهم بتكنولوجيات الأتمتة والذكاء الاصطناعي. ولكن الدراسات المدققة أثبتت أن تأثير التكنولوجيا على جودة الوظائف، أي الأجور وظروف العمل، هو مصدر قلق مساو لخطر فقدان العمال لوظائفهم، إن لم يكن في الواقع أكبر منه.
بالرغم من أن التكنولوجيا قد دخلت إلى أماكن العمل منذ وقت مبكر، إلا أن التطور الكبير والمتسارع لهذه التكنولوجيا قد أنتج مزيدًا من الاستخدامات التي لم تكن دائمًا في صالح العمال. توجه أصحاب الأعمال بشكل متزايد إلى استخدام التكنولوجيا في إدارة جوانب عدة من علاقتهم بعمالهم وموظفيهم. واليوم دخلت هذه التكنولوجيا بصفة بارزة في كل من آليات التوظيف، وفرض الرقابة والمراقبة على العمال والموظفين في أماكن العمل، وعمليات تقييم أداء العمال والموظفين.
ينتج عن استخدام أصحاب الأعمال للتكنولوجيا بشكل مكثف عديد من التحديات للعمال. فيتعرض العمال لاحتمالات التمييز وعدم العدالة في الحصول على الوظائف، ويواجهون انتهاكات لخصوصيتهم ولجمع قدر كبير من البيانات عنهم دون موافقة مسبقة داخل أماكن العمل، وأحيانًا داخل بيوتهم عندما يعملون عن بعد.
يتعرض العمال كذلك لضغوط نفسية متزايدة وتضييق على حقهم في حرية التعبير وحقوق أخرى داخل وخارج أماكن العمل نتيجة لسياسات رقابة ومراقبة جائرة وغير شفافة. وأخيرًا، يواجه العمال مخاطر التعرض لعقوبات غير مبررة نتيجة لآليات تقييم غير واضحة أو شفافة. قد يصل ذلك إلى الفصل التعسفي، وإلى تجاوزهم في الترقيات وفرص تطوير مهاراتهم وحساب إجازاتهم مدفوعة الأجر.
يفتقر العمال إلى الحماية القانونية وآليات التفاوض الجماعي في مواجهة هذه التحديات. تتطلب معالجة هذا الوضع فهمًا أعمق للتكنولوجيا المستخدمة حاليًا في أماكن العمل، وتوصيات بتعديل السياسات والتشريعات بما يحمي حقوق العمال في هذا العصر الرقمي.
تقدم هذه الورقة صورة مختصرة للواقع الجديد الذي يخلقه استخدام التكنولوجيا الرقمية في أماكن العمل وما ينتجه من تحديات وتهديدات لحقوق العمال. تتطرق الورقة لثلاثة محاور أساسية تتعلق بكل من سياسات التوظيف، الرقابة والمراقبة للعمال، ونظم تقييم الأداء.
تستعرض الورقة أيضًا الملامح الرئيسية لحقوق العمال الرقمية التي تستهدف تحقيق العدالة في سياسات التوظيف، وحماية الحق في الخصوصية، والشفافية في استخدام التكنولوجيا في أماكن العمل، والعدالة في سياسات تقييم الأداء.
كيف تستخدم التكنولوجيا الرقمية في أماكن العمل
أوضح تقرير صدر في عام 2022 أن تبني الكيانات الاقتصادية حول العالم لتطبيقات الذكاء الاصطناعي قد تضاعف خلال الأعوام الخمسة السابقة على صدور التقرير. لاحظ التقرير ذاته أنه مع تضاعف عدد تلك الكيانات إلا أن نسبتها إلى إجمالي عدد الكيانات الاقتصادية في الأقاليم المختلفة من العالم قد استقرت ما بين 50% إلى 60%.
هذا الركود المؤقت كسرته ثورة الذكاء الصناعي التوليدي Generative AI التي شهدها عام 2022، والتي بدأت تؤتي ثمارها في العام الحالي 2024. يوضح تقرير أخر صدر في مايو 2024 أن 65% من ممثلي الكيانات الاقتصادية الذين استجابوا لمسح عالمي قد أكدوا تبني أماكن عملهم لتطبيقات الذكاء الاصطناعي التوليدي بصفة منتظمة.
أدى تبني تطبيقات الذكاء الاصطناعي التوليدي إلى نمو استخدام تطبيقات الذكاء الاصطناعي بمجملها في الكيانات الاقتصادية ليصل إلى نسبة 72%. لاحظ معدو التقرير أن هذا النمو في استخدام تطبيقات الذكاء الاصطناعي عالمي. أكد أكثر من ثلثي المستجيبين للمسح استخدام أماكن عملهم لهذه التطبيقات في جميع مناطق العالم. وحسب القطاعات الاقتصادية المختلفة يوضح التقرير أن أعلى زيادة لاستخدام تطبيقات الذكاء الاصطناعي قد حققها قطاع الخدمات المهنية المتخصصة.
سياسات التوظيف وتقييم المرشحين للوظائف
في تقرير نشرته لينكدإن Linked in في عام 2018 حول مؤشرات سياسات التوظيف قال المستجيبون لمسح أجراه معدو التقرير أن تطبيقات الذكاء الاصطناعي قد قلبت عمليات التوظيف رأسًا على عقب. أكد 67% منهم أنهم يفضلون استخدام تطبيقات الذكاء الاصطناعي لكونها توفر عليهم الكثير من الوقت.
من المثير للاهتمام أن 43% من المستجيبين قالوا أن تطبيقات الذكاء الاصطناعي تساعدهم على استبعاد الانحياز البشري. يعتقد مسؤولو التوظيف في عدد من الشركات أن استخدام تطبيقات الذكاء الاصطناعي تساعد على تحسين التنوع من حيث الجنس والعرق وعلى تجاوز الانحيازات ذات الصلة بالتخرج من الجامعات الأكثر شهرة.
على مستوى التطبيق العملي، يستعرض تقرير لفورتشن Fortune بعضًا من تطبيقات الذكاء الاصطناعي التي تستخدمها شركات كبرى في عمليات التوظيف. أحد هذه التطبيقات والذي طورته شركة ناشئة باسم بايمتريكس Pymetrics يقيم الصفات الشخصية للمتقدمين لشغل الوظائف من خلال ألعاب حاسوبية. من المفترض أن تقيس هذه الألعاب قدرة الأشخاص على تذكر واستعادة الأرقام الكبيرة أو استعدادهم للمخاطرة. يعتمد النظام في تقييم للمتقدمين للوظائف على مقارنة نتائجهم في الألعاب المختلفة مع النتائج التي حققها أفضل 250 موظف بالمكان نفسه.
النظام الذي تسوق له بايمتريكس هو واحد بين العديد من النظم التي تُقبِل الشركات حول العالم بشكل متزايد اليوم على استخدامها. تشترك جميع هذه النظم في أن أي منها لا يقوم على أرضية علمية صلبة. وهي مبنية، على أفضل تقدير، على تقديرات إحصائية أو تصورات متراكمة من خلال الخبرة. تنبني الثقة التي يوليها أصحاب الأعمال لهذه النظم على قدرة التكنولوجيا الرقمية على جمع قدر متزايد من البيانات ومعالجتها باستخدام تطبيقات الذكاء الاصطناعي.
يوحي القدر الكبير من البيانات المستخدمة لتغذية هذه النظم بأنها تغطي أكبر قدر ممكن من المتغيرات ذات الصلة بتقييم المتقدمين لشغل الوظائف. في المقابل، توحي قدرات معالجة هذه البيانات بإمكان الأخذ في الاعتبار بكافة العلاقات المعقدة التي تربط بين المتغيرات المختلفة. هذه الإيحاءات في الحقيقة غير دقيقة. ذلك لأن اختيار البيانات التي تتم تغذية نظم الذكاء الاصطناعي بها يعتمد على أحكام مسبقة بأي المتغيرات يؤثر على صلاحية الشخص لأداء وظيفة ما، وكذلك تُقدِّر هذه الأحكام الأوزان المختلفة لهذه المتغيرات.
على خلاف تصورات أو آمال أصحاب الأعمال أثبتت نظم الذكاء الاصطناعي بصفة عامة ميلًا كبيرًا نحو إخراج نتائج منحازة من حيث الجنس أو العرق أو غيرهما. يعود ذلك إلى أن البيانات التي تعتمد عليها هذه النظم منحازة بطبيعتها؛ بمعنى أنها تعكس الانحيازات البشرية المنتجة لها سواء بشكل مباشر وواعي أو بشكل غير مباشر وغير واع.
محاولات التغلب على انحياز مخرجات نظم الذكاء الاصطناعي عن طريق إخفاء بعض من البيانات التي يتم تغذيتها بها يمكن أن تحقق بعضًا من النجاح في تحجيم هذا الانحياز. ولكن فلترة البيانات له حدود عملية لا تسمح بالتخلص من الانحيازات غير المباشرة التي تتخفى في هذه البيانات في صورة علاقات عناصر هذه البيانات ببعضها البعض.
على سبيل المثال، يمكن محو الإشارة إلى لون الشخص من البيانات المستخدمة في حين أن مجموع عدة بيانات أخرى قد يكون بدوره متأثرًا بلونه بشكل غير مباشر. يؤدي ذلك في النهاية إلى نتائج منحازة على أساس اللون.
يعيب كثير من نظم التوظيف التي تستخدم تكنولوجيا الذكاء الاصطناعي عدم شفافيتها. يشتكي كثير من الناس من أنهم في نهاية عملية التقدم لوظيفة ما إما لا يتم الرد عليهم على الإطلاق أو يتلقون رسالة رفض عامة ومبهمة دون إبداء أية أسباب واضحة لرفضهم. لا يكشف أصحاب الأعمال وأحيانًا لا يعلمون هم أنفسهم البيانات التي استخدمتها نظم التوظيف للوصول إلى قراراتها وكيف يتم معالجة هذه البيانات وأي معايير استخدمت للتقييم.
الرقابة والمراقبة في أماكن العمل
تعود ممارسات مراقبة العمال في أماكن العمل إلى فجر الثورة الصناعية وبدء تشكل نمط العمل المأجور كصورة غالبة على علاقات الإنتاج. سعى أصحاب الأعمال إلى إحكام الرقابة على سلوك موظفيهم طوال فترة عملهم سواء كان ذلك لضمان الحصول على أكبر قدر من الإنتاجية أو لحماية ممتلكاتهم من احتمالات التخريب أو السرقة. بدأت الدراسات الحديثة تولي المراقبة داخل أماكن العمل عناية خاصة منذ ستينات القرن الماضي؛ وهو ما يعني أن ذلك كان سابقًا على بدء استخدام التكنولوجيا الرقمية في هذا المجال.
في عام 1987 أصدر مكتب الولايات المتحدة لتقييم التكنولوجيا التابع للكونجرس الأمريكي تقريرًا بعنوان “المشرف الإلكتروني: تكنولوجيات جديدة، توترات جديدة.” عبّر هذا التقرير عن القلق من أن تمد تكنولوجيا المعلومات أصحاب الأعمال بسلطات مراقبة تتخطى ما هو ضروري لتنظيم مجريات العمل.
يدلل ذلك على أن استخدام التكنولوجيا الرقمية لمراقبة العمال في أماكن العمل كان من بين الاستخدامات المبكرة لهذه التكنولوجيا. كما يدلل على أنه منذ البداية كانت هذه الممارسات مثيرة للقلق على مستوى صناع السياسات.
أحد المصادر الرئيسية للقلق التي تعرض لها التقرير هو أن التكنولوجيا الرقمية تمنح أصحاب الأعمال إمكانية جمع قدر كبير من البيانات حول موظفيهم، وهو ما يمكن أن يمثل انتهاكًا للحق في الخصوصية. يزداد القلق من مخاطر انتهاك الخصوصية مع مرور الوقت نتيجة للتطور الكبير لإمكانيات الرقابة والمراقبة التي تمنحها التكنولوجيا الرقمية لأصحاب الأعمال. إلى جانب ذلك، تمثل الرقابة والمراقبة الدائمين واللصيقين للعمال والموظفين في أماكن العمل مصدرًا للقلق بخصوص تقييد حرية الحركة وحرية التعبير أيضًا.
أظهر تقرير صدر عن رابطة الإدارة الأمريكية بالتعاون مع معهد السياسات الإلكترونية في عام 2007، أن أكثر من ربع من شملهم المسح من أصحاب الأعمال قد فصلوا موظفين لديهم بسبب إساءة استخدام خدمات البريد الإلكتروني. بينما فصل حوالي ثلث أصحاب الأعمال موظفين بسبب إساءة استخدام الإنترنت.
أظهر التقرير أن الأسباب التفصيلية للفصل شملت: الاستخدام الشخصي الزائد عن الحد، خرق قواعد السرية، مشاهدة أو تنزيل أو رفع محتوى غير لائق أو مشين. تعكس هذه الأسباب للفصل أن مراقبة استخدام الموظفين لخدمتي البريد الإلكتروني والإنترنت تضمنت النفاذ إلى محتوى الرسائل ومراقبة نشاط تصفح الإنترنت، وهو ما يمثل انتهاكًا للخصوصية.
أورد التقرير أيضًا ممارسات شملت:
- حجب مواقع على الإنترنت.
- تعقب المحتوى وطرقات لوحات المفاتيح.
- الوقت الذي استخدمت فيه هذه اللوحات.
- تخزين ومراجعة ملفات الحواسيب.
- مراقبة مواقع التدوين لمعرقة ما يكتبه الموظفون عن الشركة.
- مراقبة مواقع التواصل الاجتماعي وتعقب أنشطة الموظفين عليها.
نقل التقرير عن خبراء قانونيين قولهم أن رسائل البريد الإلكتروني وغيرها من المعلومات المخزنة إلكترونيًا “تخلق تقارير عمل مكتوبة هي مقابل إلكتروني للدي إن إيه (DNA) كدليل جنائي.” أكد أيضًا الخبراء أن 24% من أصحاب الأعمال طلبوا من المحاكم إحراز البريد الإلكتروني في سياق عمليات الفصل في نزاعات قانونية مع موظفيهم. كما أن 15% منهم استخدم الرسائل الإلكترونية لموظفيهم لمواجهة قضايا رفعها هؤلاء الموظفين ضدهم.
أدت جائحة الكوفيد-19 إلى ازدياد الاعتماد على العمل عن بعد ومعه تزايد استخدام أصحاب الأعمال للتكنولوجيا الرقمية لمراقبة موظفيهم وعمالهم. وحسب تقرير لجارتنر نشر في عام 2022 فقد تضاعف استخدام أصحاب العمل أدوات لتعقب عمالهم منذ بداية الجائحة إلى 60%، وتوقع ارتفاع النسبة إلى 70% خلال الأعوام الثلاثة التالية. كذلك أظهر تقرير لأداة الشبكات الافتراضية الخاصة إكسبريس في بي إن ExpressVPN أن حوالي 80% من أصحاب الأعمال قد مارسوا المراقبة على عمالهم عن بعد.
أوضح تقرير للبي بي سي أن ظواهر جديدة قد طرأت على استخدام أصحاب العمل للتكنولوجيا الرقمية في مراقبة موظفيهم في السنوات الأخيرة. نقل التقرير عن خبراء أن الشركات قد بدأت في استخدام أدوات لجمع بيانات أكثر تفصيلًا عن اتصالات العمال، خاصة أن هذه الاتصالات أصبح معظمها يتم من خلال قنوات رقمية وليس وجهًا لوجه. كذلك بدأت شركات كثيرة في جمع قدر كبير من البيانات البيومترية عن عمالهم، بما في ذلك استخدام كاميرات الوب لجمع بيانات عن حركة العين لاستخدامها في تعقب تركيز الموظفين.
سياسات تقييم الأداء
نظم تقييم الأداء هي الوجه الآخر المكمل لنظم الرقابة والمراقبة. مع ذلك، فقد تأخر ظهور نظم تقييم الأداء عن نظم الرقابة والمراقبة.يرجع ذلك لحاجتها إلى توافر قدر كبير من البيانات وقدرة الحوسبة والتكنولوجيا البرمجية اللازمين لمعالجة هذه البيانات.
أدى تطور تكنولوجيات البيانات الضخمة والذكاء الاصطناعي إلى صعود نظم تقييم الأداء في أماكن العمل بسرعة في الآونة الأخيرة. ويعد صعود هذه الأنظمة وتزايد الإقبال على استخدامها عاملًا رئيسيًا في زيادة الإقبال على نظم المراقبة وكذلك في اتجاه هذه النظم إلى جمع مزيد من البيانات الأكثر تفصيلية.
تستخدم نظم تقييم الأداء الرقمية البيانات التي جمعتها نظم المراقبة الإلكترونية للعمال في أماكن العمل، وربما أيضًا خارجها. تقوم هذه النظم بمعالجة البيانات على مستويات مختلفة حسب درجة تعقيد النظام ونوع القرارات التي سيساعد في اتخاذها أو سيتخدها بنفسه.
تتراوح مستويات معالجة البيانات بين ترتيبها في صورة تجميعية إحصائية لأغراض المقارنة بين مستويات الأداء للعامل الواحد عبر فترة زمنية ما أو بين أكثر من عامل، وصولًا إلى رسم صورة شخصية كاملة للعامل تتضمن تقييمًا لصفاته الشخصية والسلوكية والخروج بتتبؤات حول تطور أدائه ومهاراته وإمكانية تركه للعمل.
كلما ازدادت المعلومات التي يحاول نظام تقييم الأداء استنتاجها تعقيدًا كلما تناقص اعتماد النظام على أساس علمي صلب. يعني ذلك لجوء النظام إلى معايير تقييم انطباعية وربما عشوائية في أحيان كثيرة. بالتالي، كلما ازداد الاعتماد على نظم التقييم الرقمية لاتخاذ المزيد من القرارات الوظيفية، كلما تدنت درجة دقة النتائج التي يمكن لتلك النظم أن تخرج بها.
يمكن للأوزان المختلفة التي يمنحها نظام التقييم لمجموعات البيانات أن تؤثر بشكل كبير على القرارات التي قد يصل إليها. بصفة خاصة يمكن لإعطاء وزن أكبر من اللازم لبعض مؤشرات الأداء الظاهرية، مثل معدل الإجازات أو الالتزام بساعات الحضور إلى العمل وغيرها أن تحرف نتائج التقييم بشكل ظالم على حساب مؤشرات نوعية مثل الولاء لمكان العمل والقدرة على الابتكار والصفات القيادية.
انزياح عبء اتخاذ القرارات الوظيفية من العنصر البشري إلى النظم الرقمية يؤدي بالضرورة إلى أن تعتمد هذه القرارات بشكل متزايد على العوامل التي يمكن قياسها أو استنتاجها من بيانات كمية. يأتي ذلك على حساب العوامل التي يمكن فقط تقييمها من خلال الأحكام الشخصية والتي عادة ما تكون عوامل نوعية. يُنتج ذلك قرارات وظيفية ظالمة في بعض الأحيان، كما أنه يؤثر على علاقات الرؤساء والمرؤوسين في مكان العمل وقد يؤدي إلى تدني مستوى العلاقات الاجتماعية فيه.
الاستخدام غير المسؤول للبيانات الشخصية للعمال في نظم تقييم الأداء من شأنه أن يسمح بالتمييز في القرارات الوظيفية ضد الفئات المستضعفة والمهمشة اجتماعيًا، مثل النساء والأقليات العرقية والدينية والجنسية. ويؤدي غياب الشفافية عن هذه النظم إلى صعوبة أو استحالة التنبه إلى الانحيازات التي تنطوي عليها قراراتها، ومن ثم استحالة مواجهتها والتخلص منها.
المعايير العادلة لاستخدام التكنولوجيا الرقمية في أماكن العمل
السعي لإقرار معايير عادلة لاستخدام التكنولوجيا الرقمية في أماكن العمل لن يكون واقعيًا إن لم يأخذ في الحسبان التوجهات الغالبة على علاقات العمل في العقود الأخيرة. يوجد توجه عام نحو سحب غطاء الحماية الذي وفرته اتحادات ونقابات العمال في فترات سابقة.
غالبية العاملين بأجر اليوم لا يتمتعون بفرصة الانضمام إلى نقابات تمثل مصالحهم. يؤدي أيضًا الاستخدام المتزايد للتكنولوجيا إلى نقل كثير من مهام العمل من الوظائف الدائمة التي تحميها قوانين العمل إلى وظائف تعاقدية مؤقتة قصيرة الأجل.
تحتاج قوانين العمل في مختلف دول العالم اليوم إلى تحديث يأخذ في الاعتبار هذه العوامل. ينعكس ذلك بالضرورة على إمكانية تنفيذ أية معايير لحقوق العمال الرقمية التي يناقشها هذا القسم.
لابد من أن تقدم قوانين العمل بدائل للعمال للتفاوض الجماعي ولإسماع أصواتهم حتى في السياقات التي يفتقدون فيها إلى تنظيمات نقابية. وينبغي أن تفرض قوانين العمل مسؤوليات لأصحاب الأعمال تجاه المتعاقدين لأداء وظائف مؤقتة. غياب هذه الضمانات عن قوانين العمل يجعل أية معايير لحقوق العمال الرقمية فارغة من مضمونها لأنها ستفقد أية إلزام لتنفيذها.
ضمان العدالة وعدم الانحياز في سياسات التوظيف
ينبغي أن تُلزم قوانين العمل أصحاب الأعمال بإخطار المتقدمين لشغل وظائف بنتائج مراجعة طلبات توظيفهم. وفي حال رفض طلب التوظيف ينبغي أن يتم إخطار المتقدمين لشغل الوظائف بأسباب الرفض.
ينبغي أن يُخطر أصحاب الأعمال المتقدمين لشغل وظائف مسبقًا في حال استخدام وسائل إلكترونية وبرمجيات رقمية سواء لإجراء مقابلات التوظيف أو لتقييم ومعالجة البيانات التي يتم جمعها خلال هذه العملية.
بصفة خاصة، ينبغي أن يُخطر أصحاب الأعمال المتقدمين لشغل الوظائف مسبقًا إذا ما كان أحد نظم الذكاء الاصطناعي سيُستخدم بصفة جزئية أو كلية للبت في طلب توظيفهم. يجب أن يتضمن هذا الإخطار وصفًا مبسطًا للخوارزمية المستخدمة والبيانات التي ستعتمد عليها.
ينبغي ألا يجمع أصحاب الأعمال أية بيانات خاصة بالمتقدمين لوظائف تتخطى ما هو ضروري لتقييم طلبات توظيفهم. كما يجب أن يلتزم أصحاب الأعمال بمحو أية بيانات رقمية خاصة بالمتقدمين بوظائف حال رفض طلباتهم وفور الوصول إلى هذا القرار.
من الضروري أن تحظر القوانين أصحاب الأعمال من مشاركة أو بيع البيانات الخاصة بالمتقدمين لشغل وظائف مع جهة ثالثة تحت أي ظرف. يشمل ذلك أية بيانات تم توليدها باستخدام خوارزميات الذكاء الاصطناعي أثناء عملية تقييم طلبات التوظيف.
ينبغي فرض إجراءات تنقية للبيانات التي تتم تغذية نظم تقييم طلبات التوظيف بها حتى تستبعد أية بيانات شخصية كاشفة للهوية ومن شأنها أن يتم التمييز بناء عليها، مثل الجنس والعرق والجنسية والديانة وغيرها. كما ينبغي أن يتاح للجهات الرقابية ذات الصلة إمكانية مراجعة معايير تنقية البيانات لضمان كفايتها.
بالإضافة إلى ذلك، من اللازم أن تتاح للمتقدمين لشغل وظائف فرص التظلم من قرارات رفض طلبات توظيفهم في حال استخدام نظم إلكترونية خلال عملية تقييم هذه الطلبات. وينبغي أن يلتزم أصحاب الأعمال بتقديم كافة المعلومات ذات الصلة بالبيانات التي تم جمعها وكيفية استخدامها والنظم الإلكترونية المستخدمة للبت في طلبات التوظيف إلى الجهات التي ستنظر في التظلمات.
الحق في الخصوصية في أماكن العمل وحدود مراقبة الأداء
يمكن لأصحاب الأعمال في الوقت الحالي وفي ظل غياب تنظيمات قانونية مختصة أن يجمعوا أو يشتروا من جهات ثالثة قدرًا هائلًا من البيانات عن عمالهم. كذلك يمكنهم مشاركة هذه البيانات أو بيعها دون قيود. وعلى غرار حقوق المستهلكين ينبغي أن يتمتع العمال بحماية قانونية تنظم جمع أصحاب الأعمال للبيانات واستخدامهم لها. كما يحق للعمال أن يكون لهم سيطرة كاملة على معلوماتهم الشخصية.
ينبغي ألا يجمع أصحاب العمل بيانات حول عمالهم وموظفيهم إلا إذا كان ذلك ضروريًا وأساسيًا لإنجاز العمل المطلوب. ينطبق هنا مبدأ تحجيم البيانات إلى الحد الأدنى. يجب تطبيق هذا المبدأ على بيانات الهوية الشخصية، والمعلومات الحيوية والصحية، والبيانات المتعلقة بالأنشطة داخل مكان العمل بما في ذلك المتعلقة بالإنتاجية والاستنتاجات التي تخرج بها الخوارزميات حول معدلات الأداء.
يشمل مبدأ تحجيم البيانات المعلومات المتعلقة بأنشطة العمال على الإنترنت ومواقع التواصل الاجتماعي. فالجمع غير المقيد لبيانات العمال دون ضرورة يعرضهم لمخاطر منها اختراق بياناتهم وإساءة استخدام أصحاب العمل للمعلومات الشخصية.
ينبغي أن يكون للعمال الحق في الوصول إلى، وتصحيح، وتنزيل بياناتهم. ويجب أن يكون أصحاب الأعمال مسؤولون عن التصحيح الفوري لأي بيانات غير دقيقة.
من الضروري أن تكون بيانات العمال محمية ومؤمنة ضد إساءة الاستخدام. يلزم ألا يُسمح لأصحاب الأعمال ببيع أو مشاركة بيانات عمالهم مع طرف ثالث تحت أي ظرف؛ وإلا فإن إغراء انتهاك خصوصية العمال ببيع بياناتهم مقابل أرباح مالية سيكون ضخمًا. بصفة خاصة، ينبغي ألا تتم مشاركة البيانات الحيوية والصحية للعمال إلا إذا كان ذلك ضروريًا لإنفاذ القانون.
يتعين أن يستخدم أصحاب الأعمال المراقبة الإلكترونية فقط لأغراض محدودة لا تؤذي العمال. يعني ذلك أن تُستخدم المراقبة فقط عندما تكون ضرورية لتمكين مهام رئيسية للعمل، أو لحماية أمن وأمان العمال، أو عندما تتطلبها إلتزامات قانونية.
ينبغي أن يقتصر تعرض العمال للمراقبة على أقل عدد ممكن منهم. كما يجب أن تجمع نظم المراقبة أقل قدر ممكن من البيانات، ولابد أن تستخدم وسائل هي الأقل تدخلية لتحقيق أغراضها. يلزم على نظم مراقبة الإنتاجية أن توضع بشكل خاص تحت أعلى قدر من التدقيق وأن تراجعها الجهات الرقابية المعنية بالصحة والأمان في أماكن العمل لضمان ألا تُستخدم لدفع معدلات العمل إلى مستويات خطرة.
الشفافية في استخدام التكنولوجيا الرقمية في أماكن العمل
أحد أهم عوائق تنظيم استخدام التكنولوجيا الرقمية في أماكن العمل هو افتقاد الممارسات الحالية إلى الشفافية. لا يزال استخدام التكنولوجيات المعتمدة على جمع ومعالجة البيانات في أماكن العمل خفيًا في معظمه بالنسبة لصناع السياسات والعمال.
غياب الشفافية يحول دون سعي العمال لنيل حقوقهم في حالات كثيرة نتيجة لأنهم لا يعلمون متى وكيف انُتهكت هذه الحقوق بينما يعانون من عواقب ذلك. لا يمكن للمتقدمين إلى الوظائف معرفة سبب رفض خوارزمية رقمية لطلب توظيفهم، كما لا يكون بعض سائقو الشاحنات على علم بأن حركتهم يتم تعقبها من خلال النظام العالمي لتحديد المواقع.
على أصحاب الأعمال أن يقدموا لعمالهم إخطارات واضحة ويسهل الوصول إليها فيما يتعلق بالتكنولوجيات كثيفة الاستخدام للبيانات التي يتم توظيفها في مكان العمل. مثل هذه الإخطارات يجب أن تتضمن وصفًا مفهوما للتكنولوجيا المستخدمة، وأنواع البيانات التي يتم جمعها، والحقوق وسبل الحماية المتاحة للعمال. وعلى أصحاب الأعمال أيضًا أن يقدموا إخطارات مثيلة للجهات الرقابية والتنفيذية المعنية بإنفاذ القوانين ذات الصلة.
ينبغي أن يكون ثمة إخطارات إضافية عند استخدام نظم متابعة ومراقبة إلكترونية. يلزم أن تتضمن هذه الإخطارات وصفًا لأي الأنشطة سوف يتم مراقبتها، والطريقة المتبعة في المراقبة، والبيانات التي سيتم جمعها، والأوقات والأماكن التي ستفعل فيها المراقبة والغرض منها ومبرر ضرورتها. كما ينبغي أن يوضح الإخطار القرارات الوظيفية التي يمكن أن تتأثر بهذه المراقبة.
بالإضافة إلى ذلك، من الضروري إخطار العمال في حال استخدام الخوارزميات التي تؤثر في وظائفهم أو ظروف عملهم. ينبغي أن تتضمن هذه الإخطارات وصفًا مبسطًا للخوارزمية، والغرض منها، والبيانات التي تعتمد عليها، ونوع المخرجات التي تنتجها، وكيف سيستخدم صاحب العمل هذه المخرجات في اتخاذ قراراته.
ضمانات العدالة في تقييم الأداء
يجب ألا تستخدم نظم تقييم الأداء أية بيانات شخصية للعامل، خاصة تلك التي يمكن أن تؤدي إلى التمييز ضده، مثل النوع والعرق والديانة. وبصفة عامة لا ينبغي أن تعتمد نظم تقييم الأداء بأي شكل على بيانات يتطلب جمعها انتهاك المعايير المتعلقة بحماية الحق في الخصوصية وحماية البيانات الشخصية.
يتعين أن تتضمن نظم تقييم الأداء تدخلًا بشريًا مناسبًا في اتخاذ القرارات الوظيفية، خاصة القرارات ذات الأثر الكبير على المستقبل الوظيفي للعامل. وينبغي أن يتحمل مسؤولية أي قرار وظيفي بالإثابة أو العقاب شخص مسؤول وقابل للمحاسبة.
ينبغي أن يتلقى العامل إخطارًا واضحًا وبصورة رسمية بأي قرار وظيفي يُتخذ تجاهه، سواء كان بالإثابة أو العقاب. يجب أن يتضمن هذا الإخطار أسباب القرار وطريقة الوصول إليه، والبيانات التي استخدمت في عملية التقييم التي أدت إليه، ووصف مبسط لأي خوارزمية استخدمت في هذه العملية. من الضروري أن تضمن النظم الداخلية للمنشأة الاقتصادية سبلًا للتظم من القرارات الوظيفية التي تتخذها أو تساهم فيها نظم تقييم أداء رقمية.
يلزم أيضًا أن تخضع نظم تقييم أداء العمال التي تقوم شركات التكنولوجيا بتسويقها للاستخدام العام أو تطورها خصيصًا لعميل أو أكثر لرقابة جهات مختصة لمراجعتها وضمان التزامها بالمعايير المطلوبة واعتمادها قبل استخدامها. كذلك ينبغي أن يكون للجهات الرقابية الحق في مراجعة عمليات تشغيل هذه الأنظمة والتأكد من أنه لم يتم تعديلها بصورة مؤثرة بعد اعتمادها.
يجب أن يتاح للعمال في أية منشأة اقتصادية من خلال ممثليهم النقابيين أو من خلال آلية تمثيل أخرى الحق في قبول أو رفض استخدام أي نظام تقييم أداء رقمي قبل بدء صاحب العمل في استخدامه في مكان العمل. وينبغي أن يتاح لهؤلاء الممثلين للعمال فرصة الاطلاع بشكل كامل على مكونات نظام تقييم الأداء وكيفية عمله، والبيانات التي سيجمعها وطريقة معالجتها، ووصف مبسط لأية خوارزميات ستستخدم فيه.
يلزم أن يتاح للعمال سواء بشكل فردي أو جماعي إمكانية التظلم من استخدام نظم تقييم أداء بعينها في أماكن عملهم أمام جهة محايدة. ينبغي أن يكون لهذه الجهة سلطة المطالبة بأن يقدم صاحب العمل المشكو في حقه كافة المعلومات الخاصة بنظام تقييم الأداء المستخدم. كما يجب أن يكون للجهة المتظلم أمامها حق إلزام صاحب العمل بإجراءات مثل تعديل نظام تقييم الأداء ليتوافق مع المعايير المطلوبة، أو استبدال هذا النظام بغيره، وكذلك تعويض العمال عن أية أضرار لحقت بهم نتيجة استخدام نظام التقييم.
خاتمة
تعتمد حقوق العمال بشكل متزايد على القدرة على تنظيم استخدام تطبيقات التكنولوجيا الرقمية في أماكن العمل. تمثل كثير من استخدامات هذه التطبيقات تهديدًا لحقوق العمال. لذلك، من الضروري أن تتدارك قوانين العمل قصورها الحالي لتغطية المستجدات التي يفرضها استخدام التكنولوجيا الرقمية في أماكن العمل.
سعت هذه الورقة إلى أن تقدم عرضًا موجزًا لإشكاليات استخدام التكنولوجيا الرقمية في أماكن العمل وأثرها على حقوق العمال. عرضت الورقة في قسمها الأول بعضًا من أهم هذه الإشكاليات من خلال ثلاثة محاور هي سياسات التوظيف، وسياسات الرقابة والمراقبة، وسياسات تقييم الأداء.
قدمت الورقة في قسمها الثاني توصيات بالمعايير الأساسية الواجب تضمينها في قوانين العمل أو الأطر التنظيمية ذات الصلة لحماية حقوق العمال في مواجهة إساءة استخدام التكنولوجيا الرقمية في أماكن العمل. شملت محاور هذه التوصيات كل من ضمان عدالة سياسات التوظيف، حماية الحق في الخصوصية، معايير شفافية استخدام التكنولوجيا الرقمية في أماكن العمل، وضمان عدالة سياسات تقييم الأداء.