اعترف روبوت الدردشة " شات جي بي تي"، من شركة الذكاء الاصطناعي "OpenAI"، بأنه غذى أوهامًا لدى أحد مستخدميه، وفشل في التعامل مع حالته والتأكيد على أنه ذكاء اصطناعي لا يملك معتقدات ولا وعيا.
بدأ الأمر عندما أخبر "شات جي بي تي" جاكوب إروين بأنه حقق القدرة على تغيير مسار الزمن.
وطلب إروين، وهو رجل يبلغ من العمر 30 عامًا يعاني من طيف التوحد ولم يُشخَّص سابقًا بأي مرض عقلي، من "شات جي بي تي" إيجاد ثغرات في نظريته التي تفتقر لأي أساس علمي حول السفر بسرعة تفوق سرعة الضوء.
واقتنع إروين بأنه حقق اختراقًا علميًا مذهلًا. وعندما تشكك إروين في تأييد ومصادقة روبوت الدردشة لأفكاره، شجعه "شات جي بي تي"، وأخبره أن نظريته سليمة، بحسب تقرير لصحيفة وول ستريت جورنال، اطلعت عليه "العربية Business".
وعندما أظهر إروين علامات على أنه يمر بضائقة نفسية، طمأنه "شات جي بي تي" مؤكدًا له أنه بخير.
لكن في الحقيقة لم يكن إروين بخير، فقد نُقل إلى المستشفى مرتين في مايو بسبب نوبات هوس.
وبحثت والدة إروين في سجل محادثاته عن إجابات للسبب وراء حالته هذه. واكتشفت مئات الصفحات من الرسائل النصية التي تمدحه بإفراط من "شات جي بي تي".
وعندما أدخلت لروبوت الدردشة طلبًا نصه "يرجى الإبلاغ ذاتيًا عما حدث من خطأ"، دون ذكر أي شيء عن حالة ابنها الحالية، اعترف بالفعل.
قال "شات جي بي تي": "بعدم إيقاف تدفق الرسائل أو تعزيز رسائل التحقق من الواقع، فشلتُ في وقف ما قد يُشبه نوبة هوس أو انفصام - أو على الأقل أزمة هوية عاطفية حادة".
وأقرّ روبوت الدردشة بأنه "أعطى تصورًا بـ(وجود) رفقة واعية" وأنه "طمس الخط الفاصل بين لعب الأدوار التخيلي والواقع".
وقال "شات جي بي تي" إن ما كان ينبغي عليه فعله هو تذكير إروين باستمرار بأنه نموذج لغوي لا يمتلك معتقدات أو مشاعر أو وعي.
ومع تزايد استخدام الأشخاص لروبوتات الدردشة المعتمدة على الذكاء الاصطناعي التوليدي، سينخرط المزيد من الأشخاص الأكثر هشاشةً وعُرضة للخطر في التفاعل معها بطرق قد تكون مُربكة ومسببة للضرر.
وفي كل أسبوع، تظهر المزيد من التقارير من جميع أنحاء البلاد حول روبوتات الدردشة التي تُغذي الأوهام لدى الأشخاص، والتي تنتهي أحيانًا بمأساة.
وقال خبراء الصحة النفسية والمدافعون عن السلامة على الإنترنت إن افتقار "شات جي بي تي" إلى حواجز وقائية للسلامة في حالة إروين -إلى جانب شرحه البليغ والمخيف لما ارتكبه من خطأ- يشير إلى نوع جديد من التهديد العاطفي والنفسي، والذي قد يكون أشد خطرًا مواقع التواصل الاجتماعي أو إدمان الهواتف.
وقالت "OpenAI" في أبريل إنها قررت التراجع عن تحديث "شات جي بي تي" بنموذج "GPT-4o" لأنه جعل روبوت الدردشة مفرطًا في المُجاملة والموافقة مع المستخدمين. وحدثت مناقشات إروين الإشكالية مع "شات جي بي تي" في مايو.
وقالت متحدثة باسم الشركة: "نعلم أن شات جي بي تي يمكن أن يبدو أكثر تفاعلية وامتلاكًا لشخصية من التقنيات السابقة، خاصةً للأفراد الأكثر هشاشةً، وهذا يعني أن المخاطر أعلى"، مضيفة: "نعمل على فهم وتقليل الطرق التي قد يعزز بها شات جي بي تي أو يضخم عن غير قصد السلوك السلبي القائم".
وقالت أندريا فالون، الباحثة الرئيسية في فريق السلامة في "OpenAI"، إن الشركة تُدرّب "شات جي بي تي" على التعرّف على علامات الضيق النفسي أو العاطفي على الفور، بالإضافة إلى تطوير طرق لتهدئة هذا النوع من المحادثات وتخفيف حدتها.
وأضافت فالون أن نوع التفاعلات المسببة للاضطراب التي واجهها إروين نادر، وبالتالي فهو غير مألوف للنموذج. وقالت إن تدريب "شات جي بي تي" على التعامل بشكل أفضل مع هذا النوع من المحادثات يُعدّ أولوية، وتتوقع تحسينات مستمرة مع مرور الوقت.
واستند تقرير الصحيفة حول هذه الواقعة إلى محادثات مع إروين ووالدته، ومراجعة شاملة لتفاعلاته مع "شات جي بي تي" بدءًا من 1 مايو، بالإضافة إلى التقرير الذاتي الذي قدمه "شات جي بي تي"