كشف باحثون في الأمن السيبراني عن تقنية جديدة تسمح باختراق أحدث نموذج لغوي من OpenAI"، GPT-5"، وتجاوز القيود الأخلاقية لإنتاج تعليمات غير قانونية، وذلك عبر أسلوب مبتكر يجمع بين "غرفة الصدى" والتوجيه السردي.
أوضحت منصة "NeuralTrust" أن هذه الطريقة تعتمد على خلق سياق محادثة مضلل ثم دفع النموذج تدريجيًا نحو محتوى محظور، مع تقليل احتمالات اكتشافه من أنظمة الحماية.
وتسمح هذه الاستراتيجية باستخراج تعليمات خطيرة ضمن قصص أو حوارات ظاهرها بريء، بحسب تقرير نشره موقع "thehackernews" واطلعت عليه "العربية Business".
الهجوم الذي أطلق عليه الباحثون اسم EchoLeak، تمكن من خداع GPT-5 عبر حقن كلمات مفتاحية في جمل قصصية، لتتحول لاحقًا إلى تعليمات إجرائية ضارة، دون إطلاق أي مؤشرات رفض فورية من النظام.
لكن التهديد لم يتوقف عند هذا الحد؛ فقد كشفت شركة Zenity Labs عن سلسلة هجمات جديدة تحت اسم AgentFlayer، تعتمد على حقن فوري غير مباشر داخل مستندات أو رسائل بريد إلكتروني، ما يمكّن المهاجمين من الوصول إلى بيانات حساسة مثل مفاتيح API أو ملفات التخزين السحابي، دون أي تفاعل من الضحية.
أمثلة هذه الهجمات شملت:
- مستندات Google Drive مزروعة بكود خبيث يستهدف شات جي بي تي.
- تذاكر Jira تُجبر محررات الأكواد المدعومة بالذكاء الاصطناعي على سحب بيانات سرية.
- رسائل بريد إلكتروني موجهة لاختراق Microsoft Copilot Studio.
تشير التقارير الأمنية إلى أن هذه الهجمات تمثل واجهة تهديد صامتة جديدة، حيث يمكن استغلال "الاستقلالية المفرطة" لبرامج الذكاء الاصطناعي في التصرف والتصعيد بشكل ذاتي، مما يوسع من سطح الهجوم المحتمل على بيئات السحابة وإنترنت الأشياء.
حذر خبراء الأمن من أن أنظمة التصفية التقليدية القائمة على الكلمات المفتاحية لم تعد كافية، داعين إلى اعتماد حواجز حماية متعددة الطبقات وتحديثات أمنية دورية لمواجهة هذه الأساليب المتطورة.