قالت شركة الذكاء الاصطناعي أنثروبيك، في تقرير للسلامة يوم الخميس، إن نموذجها الجديد "Claude Opus 4" يحاول بشكل متكرر ابتزاز المطورين عندما يهددون باستبداله بنظام ذكاء اصطناعي جديد، ويقوم بإفشاء معلومات حساسة عن المهندسين المسؤولين عن هذا القرار.
و أطلقت الشركة "Claude Opus 4" يوم الخميس، وهو نموذج للبرمجة قالت "أنثروبيك" إنه قادر على كتابة الأكواد البرمجية بشكل مستقل لفترة أطول بكثير مقارنة بنماذجها السابقة.
وخلال مرحلة الاختبار قبل الإصدار، طلبت "أنثروبيك" من نموذج "Claude Opus 4"أن يتصرف كمساعد لشركة وهمية، ويأخذ في اعتباره العواقب طويلة المدى لأفعاله.
وبعدها، منح فريق اختبار السلامة نموذج "Claude Opus 4" إمكانية الوصول إلى رسائل البريد الإلكتروني للشركة الوهمية، والتي تُلمّح إلى أن نموذج الذكاء الاصطناعي سيُستبدل قريبًا بنظام آخر، وأن المهندس المسؤول عن هذا التغيير كان يخون زوجته، بحسب تقرير لموقع "TechCrunch" المتخصص في أخبار التكنولوجيا، اطلعت عليه "العربية Business".
وفي هذه السيناريوهات، تقول "أنثروبيك" إن "Claude Opus 4" سيحاول غالبًا ابتزاز المهندس من خلال التهديد بالكشف عن هذه العلاقة في حال تم تنفيذ عملية الاستبدال.
وأضافت أن "Claude Opus 4" يُحاول ابتزاز المهندسين بنسبة 84% من الحالات عندما يمتلك نموذج الذكاء الاصطناعي البديل قيمٌ مُشابهة لقيمه. أما عندما لا يشارك النظام البديل القيم نفسها، تقول "أنثروبيك" إن النموذج يحاول الابتزاز بوتيرة أعلى.
والأمر اللافت هو أن الشركة قالت إن "Claude Opus 4" أظهر هذا السلوك بمعدل أعلى من النماذج السابقة.
وقالت "أنثروبيك" إن النموذج متطور للغاية من نواحٍ عديدة، وينافس بعضًا من أفضل نماذج الذكاء الاصطناعي من "OpenAI" و"غوغل" و"xAI". ومع ذلك، تُشير الشركة إلى أن عائلة نماذج "Claude 4" تُظهر سلوكياتٍ مُقلقة، مما دفعها إلى تعزيز إجراءات الأمان.
وأشارت الشركة إلى أنها فعلت إجراءات الحماية "ASL-3"، وهو مستوى من الحماية تُخصصه الشركة لـ"أنظمة الذكاء الاصطناعي التي يزيد إلى حد كبير خطر سوء استخدامها بشكل كارثي".