قد يكون مديرك الجديد خوارزمية.. وهذا سبب وجيه للقلق
١٥ أبريل ٢٠٢٦
الذكاء الاصطناعي لا يغير الوظائف فحسب، بل يتخذ الآن قرارات التوظيف وتقييم الموظفين وفصلهم. والأدلة تظهر أن هذه الأنظمة تنتشر أسرع من القوانين التي يفترض أن تسيطر عليها.
أكبر خرافة حول الذكاء الاصطناعي في العمل هي أن الأمر يقتصر على استيلاء الروبوتات على الوظائف. هذه نظرة ضيقة، وبصراحة، مريحة أكثر من اللازم. التحول الحقيقي أكثر خفاءً، ويسهل على الشركات إنكاره. فالذكاء الاصطناعي يتجه نحو الإدارة. إنه يفحص السير الذاتية، ويقيّم مقابلات العمل، ويتتبع سرعة العمل في المستودعات، ويراقب نبرة الصوت في مراكز الاتصال، ويتنبأ بمن قد يستقيل، ويصنف الموظفين بين عالي الأداء ومنخفضه. بمعنى آخر، لم تعد البرامج مجرد أداة للموظفين، لقد أصبحت هي المدير.
هذا ليس تحذيراً من الخيال العلمي البعيد. بل هو واقع مدمج بالفعل في برامج التوظيف وأماكن العمل التي تبيعها كبرى الشركات في الولايات المتحدة وأوروبا وآسيا. وتشير الأبحاث والتقارير الحكومية إلى نفس الاتجاه منذ سنوات. ففي استطلاع أجرته جمعية إدارة الموارد البشرية عام 2022، تبين أن العديد من الشركات تستخدم الأتمتة بالفعل في التوظيف. وقد حذرت منظمة التعاون الاقتصادي والتنمية (OECD) من أن الإدارة الخوارزمية تنتشر في قطاعات مختلفة، خاصة في الخدمات اللوجستية ومنصات العمل والبيع بالتجزئة وخدمة العملاء. ففي المستودعات، يمكن للبرامج تحديد مسارات السائقين وسرعتهم. وفي تطبيقات طلب السيارات وتوصيل الطلبات، تقوم التطبيقات بتوزيع المهام وتتبع الأداء، ويمكنها معاقبة العمال دون أي تفسير بشري يذكر. قد لا يرتدي هذا النظام بدلة رسمية، لكن الموظفين يشعرون بسلطته جيدًا.
تتجلى المشكلة بوضوح أكبر في عمليات التوظيف. تحب الشركات استخدام الذكاء الاصطناعي لفرز طلبات التوظيف لأنها تتلقى أعدادًا هائلة منها. والفكرة مغرية: دع البرنامج يفرز الطلبات، مما يوفر الوقت ويقلل التكاليف ويحد من التحيز البشري. لكن هذا الادعاء كان دائمًا أبسط من الحقيقة. فقد أظهر الباحثون مرارًا أن خوارزميات التوظيف يمكن أن تعكس التحيزات الموجودة في البيانات التي تدربت عليها. والمثال الشهير هو تخلي شركة أمازون عن أداة توظيف داخلية بعد أن اكتشفت أنها تميز ضد النساء في بعض الحالات، لأنها تعلمت أنماطًا من السير الذاتية التي قُدمت على مدار عقد هيمن فيه الرجال. هذه القضية مهمة لأنها كشفت المشكلة الجوهرية في كل هذه الأنظمة. فهي لا تكتشف الكفاءة من فراغ، بل تتعلم من التاريخ، والتاريخ غالبًا ما يكون غير عادل.
جعلت أدوات تحليل الوجوه والأصوات المشكلة أسوأ. فقد ادعى بعض البائعين أنهم يستطيعون استنتاج سمات مثل الحماس أو الصدق أو مدى ملاءمة المرشح للدور من خلال مقابلات الفيديو. الكثير من هذه الادعاءات بنيت على أسس واهية. وقد شكك الباحثون وجماعات الحقوق الرقمية في الأساس العلمي لهذه الادعاءات، وبدأ المنظمون في الانتباه. ففي ولاية إلينوي، فرض "قانون مقابلات الفيديو بالذكاء الاصطناعي" بعض الشفافية حول استخدام الذكاء الاصطناعي في المقابلات المسجلة. كما حذرت لجنة تكافؤ فرص العمل الأمريكية من أن برامج التوظيف قد تنتهك قوانين الحقوق المدنية إذا استبعدت الأشخاص ذوي الإعاقة أو الفئات المحمية الأخرى دون مبرر مناسب. والحقيقة الصارخة هي أن الكثير من أنظمة الذكاء الاصطناعي في أماكن العمل قُدمت بلغة الكفاءة قبل أن تُجبر على إثبات عدالتها.
أما جانب المراقبة فقد يكون أكثر إثارة للقلق. خلال فترة الوباء وما بعدها، انفجرت تقنيات المراقبة الرقمية. حصل أصحاب العمل على أدوات جديدة لتسجيل ضغطات المفاتيح والتقاط صور للشاشة وتتبع الوقت الذي يقضيه الموظف على مكتبه وتقييم إنتاجيته. جعل الذكاء الاصطناعي هذه الآلية قابلة للتوسع بشكل كبير. فبدلاً من أن يراقب المدير الموظفين من حين لآخر، يمكن للأنظمة الآن تصنيفهم باستمرار مقارنة بأهداف محددة. في مراكز الاتصال، يمكن لتحليلات الكلام تقييم سرعة الحديث والمقاطعات والصمت والالتزام بالنص. وفي مراكز الشحن، يمكن لماسحات المهام ولوحات قياس الأداء أن تزيد من الإنتاجية دقيقة بدقيقة. تجادل الشركات بأن هذه مجرد عمليات حديثة. لكن النقاد يصفونها بما تبدو عليه في كثير من الأحيان: مراقبة صناعية تم إدخالها إلى العمل المكتبي والخدمي.
وتشير الأدلة إلى أن التكلفة البشرية حقيقية. فقد حذرت منظمة العمل الدولية وهيئات عمالية أخرى من أن الإدارة الخوارزمية مصدر للتوتر وفقدان الاستقلالية والعقوبات الغامضة. غالبًا لا يعرف الموظفون كيف يتم تقييمهم أو كيفية الطعن في تقييم سيء. وهذا مهم لأن العواقب ليست مجردة. فالتقييم المنخفض قد يعني عدد ساعات عمل أقل، أو أجرًا أقل، أو الحرمان من الترقية، أو حتى الفصل من العمل. وعندما يكون القرار مدفونًا داخل نظام خاص بالشركة، تصبح المساءلة صعبة للغاية. يلقي المدير باللوم على البرنامج. وتلقي الشركة المبرمجة باللوم على العميل. ويجد الموظف نفسه يجادل آلة لا يمكنه فحصها.
هناك حجة مضادة شائعة، وهي ليست تافهة. المديرون البشر متحيزون أيضًا. إنهم يفضلون بعض الموظفين، ويتجاهلون أمورًا، ويحكمون على الناس بأفكار نمطية، ويتخذون قرارات عاطفية. هذا صحيح. فكل من يدعي أن الإدارة التقليدية كانت عادلة وعقلانية يبيع وهمًا. لكن هذا بالضبط ما يجعل الذكاء الاصطناعي غير الدقيق خطيرًا جدًا. إنه قادر على توسيع نطاق نفس الأحكام السيئة لتشمل آلاف الأشخاص دفعة واحدة، مع هالة زائفة من الموضوعية العلمية. التحيز البشري سيء. لكن التحيز الآلي أسوأ لأنه يأتي مختومًا بختم "مبني على البيانات".
هناك أيضًا مبررات حقيقية لاستخدام بعض أشكال الأتمتة في العمل لزيادة الإنتاجية. فبرامج الجدولة يمكن أن تقلل الفوضى. وأنظمة كشف الاحتيال يمكن أن تحمي الشركات والعملاء. والأدوات التي تساعد في تلخيص الاجتماعات أو أتمتة الأعمال الورقية المتكررة يمكن أن توفر وقت الموظفين لمهام أفضل. ليس كل استخدام للذكاء الاصطناعي في الإدارة مسيئًا أو غير عقلاني. السؤال الجاد ليس ما إذا كان للذكاء الاصطناعي مكان في العمل، فهو موجود بالفعل. المعركة الحقيقية تدور حول أين يجب أن تكون له السلطة، وأين يجب تقييدها، ومن له الحق في التدقيق فيها.
بدأ المنظمون أخيرًا في التحرك، ولكن ليس بالسرعة الكافية. فقانون مدينة نيويورك بشأن أدوات التوظيف الآلية يتطلب إجراء تدقيق للتحيز في بعض تقنيات التوظيف. ويصنف "قانون الذكاء الاصطناعي" في الاتحاد الأوروبي بعض أنظمة الذكاء الاصطناعي المتعلقة بالتوظيف على أنها "عالية المخاطر"، مما يفرض التزامات أكثر صرامة. وفي الولايات المتحدة، أعربت لجنة التجارة الفيدرالية ولجنة تكافؤ فرص العمل ووزارة العدل عن قلقها بشأن الاستخدامات غير العادلة أو الخادعة للذكاء الاصطناعي. لكن تطبيق القوانين لا يزال متفاوتًا، والسوق يسبق الجميع. فالشركات تشتري الأدوات أولاً ثم تسأل عن الجوانب القانونية لاحقًا.
هذا تصرف متهور. إذا كانت خوارزمية ما قادرة على التأثير في معيشة شخص ما، فيجب أن تخضع لمعايير أعلى من تطبيق تسويقي أو روبوت محادثة. يجب على أصحاب العمل إبلاغ الموظفين عند استخدام الذكاء الاصطناعي في التوظيف أو التقييم أو الجدولة أو الإجراءات التأديبية. ويجب عليهم أن يشرحوا بلغة واضحة ما هي البيانات المستخدمة وما هي النتائج التي تترتب عليها. يجب أن يكون التدقيق المستقل إجراءً قياسيًا، وليس مجرد استعراض علاقات عامة اختياري. ويجب أن يكون لدى الموظفين مسار واضح للاعتراض على القرارات أمام شخص حقيقي يمتلك سلطة حقيقية. وعلى المنظمين التوقف عن التظاهر بأن المبادئ الطوعية كافية. فهي ليست كذلك.
القضية الأعمق ثقافية بقدر ما هي تقنية. كثير من المديرين التنفيذيين يسمعون كلمة "ذكاء اصطناعي" ويفترضون أنها تعني الحداثة والكفاءة والحياد. هذا تفكير كسول. فنظام الإدارة سيئ التصميم لا يصبح حكيمًا لأنه يستخدم التعلم الآلي. بل يصبح أسرع في اتخاذ القرارات السيئة. لا ينبغي أن يُبنى مكان العمل في المستقبل على صفقة صامتة يتخلى فيها الموظفون عن كرامتهم وحقهم في إجراءات عادلة مقابل برامج مريحة.
يمكن للذكاء الاصطناعي أن يساعد الناس على العمل بشكل أفضل. ويمكنه أيضًا أن يحول العمل إلى نظام أكثر برودة وأقل مساءلة وأكثر قسوة. كلا المستقبلين ممكن، والتظاهر بغير ذلك هو تهرب من المسؤولية. الاختبار الحقيقي بسيط: إذا وثقت شركة ما في الذكاء الاصطناعي للحكم على موظفيها، فإن للعامة كل الحق في الحكم على استخدام الشركة للذكاء الاصطناعي. وهذا التدقيق ليس معاديًا للتكنولوجيا. إنه الحد الأدنى المطلوب في سوق عمل لا يزال يدعي أنه يقدّر البشر أكثر من الأرقام.
Source: Editorial Desk