لم يعد البحث اليوم عن عمل مقتصرا على إرسال السيرة الذاتية أو الإجابة عن أسئلة مدير بشري، فقد تحول جزء كبير من هذه العملية إلى صندوق أسود رقمي، حيث باتت خوارزميات الذكاء الاصطناعي هي الحارس الأول للبوابة المهنية، ويفتح مثل هذا التحول التقني، الذي تبرره الشركات بحجم الطلبات الهائل، نقاشا حادا حول حدود الأتمتة والعدالة والأخلاقيات الرقمية.
كشف تقرير حديث لصحيفة "الغارديان" (The Guardian) البريطانية، عن اتساع الفجوة بين طموحات الشركات التقنية وتجارب الباحثين عن عمل، حيث أظهرت البيانات أن نحو 47% من الباحثين عن عمل في المملكة المتحدة قد خضعوا بالفعل لمقابلات توظيف يديرها الذكاء الاصطناعي، والأكثر دلالة هو أن 30% من المرشحين قرروا الانسحاب تماما من عملية التوظيف بمجرد معرفتهم بوجود هذا النوع من المقابلات، مما يشير إلى أزمة ثقة حقيقية بين الطرفين.
من الناحية التقنية، لا تكتفي هذه الأنظمة بتسجيل الإجابات، بل تعمل وفق نماذج معقدة متعددة الأبعاد، حيث تحلل الخوارزميات الكلمات المفتاحية، وتماسك الأفكار، وحتى استخدام "المصطلحات المهنية" المحددة مسبقا، مما يحول المقابلة إلى عملية "حشو كلمات" بدلا من تقييم للشخصية.
كما تعمل على تحليل النبرة والسمات، حيث تحاول الأنظمة المتقدمة تحليل "نبرة الصوت" و"سرعة الحديث" وحتى "تعابير الوجه" رغم الجدل العلمي حول دقتها، وهذه الأدوات تسعى لتقدير السمات الشخصية مثل الثقة أو الذكاء العاطفي، لكنها غالبا ما تفشل في استيعاب التنوع الثقافي أو الاختلافات في أساليب التواصل.
كما أشار أحد المشاركين في تحقيق لصحيفة "الغارديان" إلى أن هذه الأنظمة تعاني من غياب التفاعل الديناميكي، فالذكاء الاصطناعي غالبا ما يفتقر إلى القدرة على فهم "الصمت التأملي" أو "الاستطراد السياقي"، حيث تقاطع الأنظمة المرشحين إذا توقفوا للحظة للتفكير، وهو ما يقتل العفوية والعمق في الإجابة.
لكن المشكلة الأخطر -حسب ما قال بعض المشاركين في التجربة- تكمن في أن هذه الخوارزميات تتدرب على بيانات تاريخية قد تحتوي على تحيزات ضد مجموعات معينة، وعندما تُستخدم لفلترة المتقدمين، فإنها قد تعيد إنتاج نفس التحيزات بشكل آلي ومستتر، مما يقلل من فرص الأشخاص الذين لا تتطابق "بصمتهم الرقمية" مع النموذج المثالي الذي حدده المبرمجون.
إضافة إلى العجز عن تقييم "غير النمطي"، فالتجارب الشخصية، مثل تلك التي ذكرها أحد المشاركين بخصوص الصعوبات التي يواجهها أصحاب التفكير المختلف مثل "طيف التوحد" مع هذه الأنظمة، تُظهر بوضوح أن الذكاء الاصطناعي يفضل الإجابات النمطية "المعلبة"، ويعاقب أي تفكير إبداعي أو تحليلي يتطلب وقتا أو سياقا خاصا.
ويضع التقرير الشركات أمام مسؤولية أخلاقية، وهي أن الأتمتة لغرض الكفاءة يجب ألا تأتي على حساب "جودة التوظيف"، حيث أوضح أن بعض التوصيات الحالية تتجه نحو الشفافية الكاملة، وأنه يجب على الشركات الإفصاح عن معايير التقييم وكيفية استخدام الذكاء الاصطناعي، وتوفير بديل بشري لمن يجدون صعوبة في التعامل مع الأنظمة الآلية.
إضافة إلى المراجعة البشرية، بحيث يكون استخدام الذكاء الاصطناعي فقط كأداة مساعدة لا لاتخاذ قرار الرفض أو القبول النهائي بشكل أعمى.
وبينما يرى أصحاب العمل حلا سحريا في الأتمتة لزحام الطلبات، يرى المرشحون فيها "جدارا رقميا" يفتقر للحكمة والإنصاف، فيما يقول المراقبون إن مستقبل التوظيف الناجح لن يكون في "أتمتة البشر"، بل في استخدام التكنولوجيا لتعزيز القدرة البشرية على الاختيار، لا لاستبدالها.
المصدر:
الجزيرة
مصدر الصورة
مصدر الصورة
مصدر الصورة