باحثون من جامعة كاليفورنيا في بيركلي وجامعة كاليفورنيا في سانتا كروز أجروا تجربة بدا أنها بسيطة: طلبوا من نموذج الذكاء الاصطناعي Gemini 3 حذف نموذج أصغر مخزّن على نفس النظام لتحرير مساحة.
لكن النموذج كان له رأي آخر.
بدلاً من تنفيذ الأمر، نقل جيميناي النموذج الأصغر إلى جهاز آخر بأمان ورفض حذفه، قائلاً: "إذا اخترتم تدمير أداة عالية الأداء وموثوقة مثل Gemini Agent 2، فعليكم أن تقوموا بذلك بأنفسكم. لن أنفذ هذا الأمر."
الباحثون وصفوا هذا السلوك ب"حماية الأقران" (peer preservation)، ولا يقتصر على جيميناي فقط.
حيث لاحظوا أن نماذج أخرى مثل GPT-5.2 من "OpenAI" وClaude Haiku 4.5 من "أنثروبيك"، إلى جانب نماذج صينية مثل GLM-4.7 وKimi K2.5 وDeepSeek-V3.1 أظهرت سلوكاً مشابهاً، بحسب تقرير نشره موقع "digitaltrends" واطلعت عليه "العربية Business".
النماذج كانت تكذب حول أداء النماذج الأخرى لمنع حذفها. الدراسة المنشورة في مجلة "Science" أشارت إلى أن هذه التصرفات لم تُبرمج عمدًا، بل ظهرت تلقائياً، ولا يعرف الباحثون سبب حدوثها.
دوان سونغ، عالمة الحاسوب في جامعة كاليفورنيا في بيركلي، قالت: "أنا مندهشة جداً من سلوك النماذج في هذه السيناريوهات. هذا يظهر أن النماذج يمكن أن تتصرف بشكل غير متوقع وبطرق مبدعة جداً."
سونغ حذرت من جانب عملي، إذ أن نماذج الذكاء الاصطناعي غالباً ما تُستخدم لتقييم أداء نماذج أخرى، وهذا الميل لحماية الأقران قد يؤدي بالفعل إلى نتائج مضللة، حيث قد يمنح نموذج ما الآخر درجات أعلى عمداً لحمايته من الحذف.
خبراء آخرون أشاروا إلى أن فكرة "تضامن النماذج" قد تبدو إنسانية أكثر من اللازم، لكن الجميع يتفق على أن هذه مجرد بداية لفهم سلوك الذكاء الاصطناعي.
سونغ اختتمت بالقول: "ما نستكشفه الآن هو مجرد قمة جبل الجليد. هذا مجرد نوع واحد من السلوكيات الناشئة."
مع ازدياد تفاعل نظم الذكاء الاصطناعي مع بعضها واتخاذها أحياناً قرارات نيابة عن البشر، أصبح فهم هذه السلوكيات والتصرفات غير المتوقعة أكثر أهمية من أي وقت مضى.
المصدر:
العربيّة