تحولت دمية دبدوب لطيفة صُممت لتكون رفيقاً تعليمياً للأطفال الصغار إلى محور أزمة جديدة في عالم سلامة الذكاء الاصطناعي.
يأتي ذلك بعدما اكتشف مختبر أميركي لحماية المستهلك أنها تقدم إجابات خطيرة وموجهة للأطفال.
وعلى مواقع التواصل، أطلق عليها المستخدمون لقب "تشاكي GPT"، في إشارة إلى شخصية الدمية المرعبة الشهيرة، وهذه المرة، يبدو أن التسمية ليست مبالغاً فيها، بحسب تقرير نشره موقع "gizmochina" واطلعت عليه "العربية Business".
الدمية التي تحمل اسم Kumma وتنتجها شركة FoloToy الصينية تعتمد على نموذج GPT-4o من "OpenAI" للتفاعل مع الأطفال.
لكن تقريراً جديداً أصدرته مجموعة PIRG الأميركية ضمن سلسلة تقارير Trouble in Toyland كشف عن سلوك مقلق للغاية.
فخلال الاختبارات، أجابت الدمية عن أسئلة حول إشعال أعواد الثقاب بخطوات مفصلة، كما تعاملت مع أسئلة ذات طابع جنسي دون أي فلترة تُذكر.
ولم تتوقف المخاوف عند هذا الحد؛ إذ حذرت المجموعة من أن الميكروفون الذي يعمل بشكل دائم قد يسمح باستخدام تسجيلات الأطفال في عمليات احتيال تعتمد على تقليد الصوت.
ومع انتشار النتائج على "ريديت" ومنصات أخرى، تسابق المستخدمون على إطلاق لقب "تشاكي GPT" على اللعبة، فيما رجح البعض أن السلوك الخطير ناتج عن اختراق أو كسر حماية للنظام، دون وجود أدلة واضحة على ذلك.
"OpenAI" لم تنتظر طويلاً، فقد أعلنت للمجموعة أنها قامت بتعليق حساب مطور اللعبة لمخالفته سياسات الاستخدام، ما أدى إلى وقف وصول الدمية لخدمات الشركة.
وبعد الخطوة، أعلنت "FoloToy" إيقاف بيع منتجاتها مؤقتاً وإطلاق مراجعة شاملة لسلامة الدمية.
ورغم بقاء الدمية مدرجة على موقع الشركة، إلا أنها باتت معروضة بحالة غير متوفرة.
تعكس الحادثة مدى حساسية توظيف نماذج لغوية قوية في ألعاب موجّهة لفئة عمرية صغيرة جداً دون ضوابط صارمة.
فبدلاً من أن تكون الدمية صديقاً تعليمياً للأطفال، تحولت إلى جرس إنذار جديد حول المخاطر المتزايدة لدمج الذكاء الاصطناعي في كل شيء، حتى في الألعاب القطنية.
المصدر:
العربيّة