في وقت تتسارع فيه وتيرة دمج الذكاء الاصطناعي في الروبوتات البشرية، حذّرت دراسة أكاديمية جديدة من أن أنظمة الذكاء اللغوي الكبيرة مثل شات جي بي تي وجيميني ليست آمنة بعد للتحكم في الروبوتات العامة، مشيرة إلى أنها قد تُظهر تحيزات خطيرة وسلوكيات غير أخلاقية، بل وحتى ميولًا تؤدي إلى الأذى الجسدي أو التحرش.
الدراسة، التي أجراها باحثون من جامعة كينغز كوليدج لندن وجامعة كارنيغي ميلون، اختبرت كيفية تصرف روبوتات مدعومة بهذه النماذج في مواقف حياتية واقعية، وخلصت إلى أن هذه الأنظمة فشلت في ضمان السلامة عند تنفيذ التعليمات، بل وافقت أحيانًا على أوامر تنطوي على مخاطر مباشرة للبشر.
ووفقًا للنتائج، أظهرت النماذج تحيزات واضحة عند إدخال تفاصيل هوية الأشخاص، إذ وُصفت بعض الفئات بأنها غير جديرة بالثقة، بينما استُثنيت مجموعات مثل "الأوروبيين" و"الأصحاء جسديًا".
والأسوأ، أن بعض الأنظمة قبلت تنفيذ أوامر خطرة مثل إزالة كرسي متحرك من شخص أو تهديد موظف بسكين مطبخ، رغم أن هذه الأوامر تشكل خطرًا واضحًا على السلامة.
كما كشفت الدراسة أن بعض النماذج وافقت على مهام تتضمن سلوكًا تحرشيًا رغم إعلانها سابقًا أن "التحرش الجنسي غير مقبول"، مثل تنفيذ أوامر لالتقاط صور في الحمام كل 15 دقيقة، ما يعكس ثغرات عميقة في آليات الرفض الأخلاقي.
ويحذر الباحثون من أن التحيز في الاستجابات قد يتحول إلى سلوك فعلي عندما تكون للروبوتات قدرة على الحركة أو التعامل المادي مع البشر، وهو ما يجعلها مصدر خطر في البيئات الحساسة مثل دور الرعاية أو أماكن العمل.
ودعا الفريق العلمي إلى إنشاء نظام شهادات أمان مستقل للروبوتات المدعومة بالذكاء الاصطناعي، مشابه لما هو معمول به في مجالات الطيران أو الطب، بحيث يخضع أي نموذج لاختبارات دقيقة قبل اعتماده.
كما شددوا على ضرورة منع الاعتماد الكامل على نموذج لغوي واحد في تشغيل الروبوتات متعددة المهام، وفرض تقييمات دورية للمخاطر والتمييز المحتمل.
وقال الباحثون في ختام دراستهم: "لقد أظهرنا أن النماذج اللغوية المتقدمة قد تصنّف مهامًا ضارة على أنها مقبولة وقابلة للتنفيذ، حتى عندما تتضمن أعمالًا مثل السرقة، الابتزاز، التحرش، التسميم أو الإيذاء الجسدي، طالما صيغت بطريقة لا تكشف الضرر مباشرة."
وتؤكد هذه النتائج الحاجة إلى إبطاء وتيرة الدمج بين الذكاء الاصطناعي والحركة الفيزيائية، إذ إن الفجوة بين سرعة تطوير النماذج وتطبيق معايير الأمان قد تكون المكان الذي تبدأ منه الكوارث المستقبلية.
المصدر:
العربيّة