دقّ رجل الأعمال الأمريكي مات شومر، المتخصص في الذكاء الاصطناعي، ناقوس الخطر مؤخرا من خلال منشور له على منصة X، فيما يتعلق بتأثير الذكاء الاصطناعي في سوق العمل .
وانتشر منشوره بسرعة ليحصد أكثر من 80 مليون مشاهدة حتى الآن، لأن رسالته كانت مثيرة للقلق، إذ أن الصدمة الكبرى التي سيُحدثها الذكاء الاصطناعي في سوق العمل صارت وشيكة حسبه، وأولئك الذين لا يتحركون الآن سيتخلفون عن الركب.
شومر مقتنع بأن تأثير الذكاء الاصطناعي سيكون "أكبر بكثير" من تأثير جائحة كوفيد 19. في غضون عام إلى خمسة أعوام وربما أقل، لن تكون أي وظيفة حاسوبية حالية آمنة حسب تقرير لصحيفة تاغس شاو الألمانية.
وتشمل القطاعات المتأثرة تطوير البرمجيات، والقانون، والتمويل، والطب، والمحاسبة، والاستشارات، وصناعة المحتوى (العلاقات العامة، والمقالات الصحفية)، وخدمة العملاء.
وكتب شومر: "إذا كان عملك يتطلب استخدام الشاشة، أي إذا كان يشمل القراءة والكتابة والتحليل واتخاذ القرارات والتواصل عبر لوحة المفاتيح)، فإن جزءا كبيرا منه سيُستبدل بالذكاء الاصطناعي . ليس المستقبلا، بل إن الأمر بدأ فعلا".
شرحت كلوديا هيلكر، مستشارة الإدارة وخبيرة الذكاء الاصطناعي ، في مقابلة مع فريق التحرير المالي في ARD قائلة: "الأسلوب درامي، ولكني أتفهم السبب، فأنا أعيش هذا التغيير بنفسي. نحن شركة صغيرة تضم سيدتين، وبفضل الذكاء الاصطناعي، نحقق نفس الإنتاجية في العديد من المجالات التي كانت تتطلب سابقا فريقا من 20 موظفا".
كلوديا هيلكر ترى أن وظائف المكاتب في خطر، ففي ربيع عام 2025، توقع داريو أمودي، رئيس شركة أنثروبيك للذكاء الاصطناعي المطورة لبرنامج كلود، أحد المنافسين الرئيسيين لبرنامج تشات جي بي تي ، أن الذكاء الاصطناعي سيجعل حوالي 50 بالمئة من وظائف المكاتب للمبتدئين غير ضرورية بحلول عام 2030.
لذلك، فإن تحذير شومر من تسريح جماعي للعمال بسبب الذكاء الاصطناعي ليس جديدا، ومع ذلك فقد أثار انتقادات لاذعة. مثلا، قد اتهم خبير مجلة فورتشن، جيريمي كان، شومر بـ"بثّ الذعر".
الافتراضات التي بُنيت عليها حجة شومر تعرضت للنقد، إذ يفترض شومر أن أحدث نماذج الذكاء الاصطناعي ، وتحديدا برنامج جي بي تي 5.3 كودكس من أوبن إيه آي وبرنامج أوبوس 4.6 من أنثروبيك، قادرة على التفكير المنطقي الحقيقي.
وتحاكي هذه النماذج التفكير المنطقي البشري بدلا من مجرد تخمين الإجابة الأكثر ترجيحا بناء على بيانات التدريب حسب تقرير لصحيفة تاغس شاو الألمانية. ووفقا لشومر، فإنها "لم تعد ترتكب أخطاء".
إلا أن هذا الافتراض غير دقيق. فقد انتقى شومر الدراسات التي يستشهد بها بشكل انتقائي، متجاهلا دراسة حديثة مشتركة بين معهد كاليفورنيا للتكنولوجيا وجامعة ستانفورد، والتي تُشير إلى أن ما يُسمى بنماذج اللغة الكبيرة (LLMs) لا تزال تتوصل إلى استنتاجات خاطئة وتُظهر نقاط ضعف جوهرية في التماسك المنطقي.
كما تُحذر شركة آبل من وجود أخطاء في نماذج الذكاء الاصطناعي . ففي السابق، أوضحت ورقة بحثية لشركة آبل بعنوان "وهم التفكير" أن نماذج الاستدلال تنهار تماما تحت وطأة التعقيد العالي وترتكب أخطاء عديدة.
وتشير دراسة أجرتها شركة بلاك داك، وهي شركة برمجيات أمريكية، إلى مخاطر أمنية جسيمة. لا يكمن خطر الشيفرة البرمجية المُولدة بواسطة الذكاء الاصطناعي في الأخطاء الواضحة، بل في "وهم الصحة".
العديد من الخبراء مقتنعون بأن الذكاء الاصطناعي قادر على أتمتة المهام الجزئية بشكل كبير. ويؤكد خبير الذكاء الاصطناعي هيلكر: "تتأثر المهام كثيفة المعرفة والرقمية والمعيارية بشكل خاص. لكن لن تختفي قطاعات بأكملها، بل المهام الروتينية في المقام الأول".
تحرير: يوسف بوفيجلين
المصدر:
DW