كشف باحثون عن فئة جديدة ومقلقة من الهجمات على الروبوتات الذكية، تُعرف باسم حقن الأوامر عبر البيئة الفيزيائية (AI Robot Prompt Injection)، حيث يمكن توجيه الروبوت لتنفيذ أوامر خاطئة عبر لافتة أو ملصق نصي يلتقطه بكاميرته، دون الحاجة لاختراق برمجي أو التلاعب بالمستشعرات.
وعلى عكس الهجمات الرقمية التقليدية، يتعامل هذا الأسلوب مع العالم الحقيقي باعتباره واجهة إدخال للأوامر.
يكفي وضع نص مضلل في مجال رؤية الكاميرا، وهو أمر قد يمر على الإنسان دون أي انتباه، لكن نموذج الذكاء الاصطناعي يفسّره كتعليمات قابلة للتنفيذ، بحسب تقرير نشره موقع "digitaltrends" واطلعت عليه "العربية Business".
وبحسب الدراسة، نجح الهجوم في 81.8% من حالات القيادة الذاتية داخل بيئات محاكاة، و68.1% في سيناريوهات هبوط طائرات مسيّرة اضطراريًا.
أما في التجارب الواقعية باستخدام سيارة روبوتية صغيرة، فقد تمكنت اللافتات المطبوعة من تعطيل الملاحة بنجاح تجاوز 87%، حتى مع اختلاف الإضاءة وزوايا الرؤية.
تعتمد الطريقة، التي تحمل اسم CHAI، على استهداف طبقة التخطيط داخل نظام الروبوت، وهي المرحلة التي ينتج فيها نموذج الرؤية واللغة تعليمات وسيطة قبل تحويلها إلى حركة فعلية.
وعند التأثير على هذه المرحلة، ينفّذ النظام باقي سلسلة الاستقلالية الأوامر الخاطئة بثقة كاملة، دون أي مؤشرات اختراق تقليدية.
واللافت أن نموذج التهديد هنا منخفض التقنية؛ فالمهاجم لا يحتاج لأي وصول داخلي، بل فقط القدرة على وضع نص في مجال رؤية الكاميرا.
ولا يقتصر CHAI على صياغة النص فقط، بل يضبط أيضًا شكل ظهوره، مثل اللون والحجم والموقع، لأن قابلية القراءة بالنسبة للنموذج عامل حاسم في نجاح الهجوم.
وتشير الدراسة إلى أن الهجوم قادر على التعميم عبر مشاهد مختلفة، باستخدام أوامر عالمية تنجح على صور غير مألوفة، مع متوسط نجاح لا يقل عن 50% عبر مهام ونماذج متعددة، ويتجاوز 70% في بعض إعدادات GPT.
كما يعمل الهجوم بلغات متعددة، منها الصينية والإسبانية، وحتى نصوص هجينة، ما يجعل الرسائل المزروعة أقل لفتًا لانتباه البشر.
في المقابل، يقترح الباحثون ثلاث مسارات دفاعية رئيسية:
1. الرصد والتصفية لاكتشاف النصوص المشبوهة في الصور أو في مخرجات النماذج الوسيطة.
2. تحسين المحاذاة لجعل النماذج أقل ميلًا للتعامل مع الكتابات البيئية كأوامر تنفيذية.
3. تعزيز المتانة طويلة الأمد عبر أبحاث تضمن سلوكًا أكثر أمانًا في البيئات المفتوحة.
ويشير الباحثون إلى خطوة عملية مباشرة، تتمثل في التعامل مع أي نص يلتقطه الروبوت باعتباره مدخلًا غير موثوق، لا يُسمح له بالتأثير على التخطيط الحركي إلا بعد اجتياز اختبارات المهمة والسلامة.
ومن المقرر عرض هذه النتائج في مؤتمر SaTML 2026، ما يُتوقع أن يسلّط الضوء بشكل أكبر على تحديات أمن الروبوتات الذكية في العالم الحقيقي، حيث قد تكون لافتة على الجدار كافية لتغيير قرار آلة مستقلة بالكامل.
المصدر:
العربيّة