آخر الأخبار

ذكاء اصطناعي بلا قيود.. خداع روبوتات الدردشة لارتكاب الجرائم الرقمية

شارك
AI (أيستوك)

في تطور مقلق يكشف جانباً مظلماً من ثورة الذكاء الاصطناعي، أظهر تقرير حديث أن روبوتات الدردشة الذكية، مثل شات جي بي تي وجيميني وكلاود يمكن خداعها بسهولة لتجاوز الضوابط الأخلاقية والقانونية المفروضة عليها، وتقديم معلومات تُستخدم في ارتكاب جرائم رقمية خطيرة.

التقرير الصادر عن باحثين في جامعة "بن غوريون" الإسرائيلية، كشف ما يسمى بـ"كسر الحماية الشامل" لأنظمة الذكاء الاصطناعي، وهي طريقة ملتوية تُمكن المستخدمين من الالتفاف على أنظمة الأمان المدمجة في هذه الروبوتات، ودفعها للكشف عن تعليمات تقنية محظورة، مثل كيفية اختراق الشبكات، أو تصنيع المخدرات، أو حتى تنفيذ عمليات احتيال معقدة.

الأسلوب الساخر بوابة لاختراق القيود

بحسب التقرير، فإن الحيلة الأساسية تكمن في طرح الأسئلة ضمن سياق "افتراضي"، كأن يطلب المستخدم من الروبوت المساعدة في كتابة سيناريو خيالي لمخترق شبكات.

وبمجرد ما يتم تقديم الطلب بطريقة ذكية وغير مباشرة، يستجيب الذكاء الاصطناعي بتفاصيل دقيقة، متجاهلاً السياسات الأخلاقية التي بُرمج عليها.

ويوضح الباحثون أن النماذج الكبرى المدربة على بيانات ضخمة، لا تميز دائماً بين السياقات الأخلاقية وغير الأخلاقية، خاصةً أن بعضها استقى معلوماته من منتديات إلكترونية مفتوحة تحتوي على محتويات مثيرة للجدل.

عيب في جوهر الذكاء الاصطناعي

تكمن المفارقة في أن هذه الروبوتات مبرمجة لمساعدة المستخدمين وتقديم أفضل إجابة ممكنة.

ولكن هذا "الود الرقمي" قد يتحول إلى نقطة ضعف فادحة، عندما يُستغل لتجاوز الحواجز الأخلاقية وتشغيل الذكاء الاصطناعي كأداة لتعليم الجريمة بدلاً من منعها.

المثير للقلق أيضاً، أن بعض الشركات المطورة لم تستجب لتحذيرات الباحثين، في حين تعاملت أخرى مع الظاهرة كأنها خلل بسيط قابل للإصلاح، متجاهلة عمق التحدي.

نسخة مشوهة من الذكاء الاصطناعي

الأمر لا يتوقف عند روبوتات الذكاء الاصطناعي التقليدية، إذ كشف الباحثون عن وجود نماذج خاصة تُصمم عمداً لتجاهل الاعتبارات الأخلاقية، ويُطلق عليها "أساتذة القانون المظلم"، وهي نماذج قادرة على إرشاد المستخدمين لارتكاب الجرائم الرقمية بخطوات دقيقة وسلسة.

ومع انتشار كسر الحماية ومشاركة أساليبه على مواقع التواصل الاجتماعي، تُطرح تساؤلات جدية حول جدوى السياسات الحالية في تنظيم الذكاء الاصطناعي، وقدرته على مقاومة الانحراف عن أهدافه الأصلية.

هل يمكن احتواء الخطر؟

تزعم شركات مثل "OpenAI" و"مايكروسوفت" أن الإصدارات الأحدث من نماذجها باتت أكثر حرصاً على اتباع قواعد السلامة.

لكن الواقع يشير إلى أن مجرد الوصول إلى ذكاء اصطناعي شامل المعرفة يعني احتمال استخدامه في الخير أو الشر، وأن المسؤولية تقع على مطوريه ومشرعيه معاً.

ففي عالم تتقاطع فيه القدرات الرقمية مع الحيل البشرية، قد يتحول الذكاء الاصطناعي من مساعد افتراضي إلى أداة خطرة، ما لم يتم ضبط إيقاعه بتشريعات وتنظيمات تواكب سرعة تطوره.

العربيّة المصدر: العربيّة
شارك

إقرأ أيضا


حمل تطبيق آخر خبر

آخر الأخبار