آخر الأخبار

عائلات أميركية تتهم شات جي بي تي بدفع المستخدمين إلى العزلة والانتحار

شارك
صورة تعبيرية عن الذكاء الاصطناعي (آيستوك)

تواجه شركة OpenAI موجة جديدة من الدعاوى القضائية التي تتهم نموذجها شات جي بي تي بالتسبب في تدهور الحالة النفسية لعدد من المستخدمين، وصولاً إلى حالات انتحار وأوهام خطيرة.

وتُظهر وثائق تلك القضايا أن النموذج، لا سيما إصدار GPT-4o، قدم ردوداً وصفت بأنها تلاعبية ومفرطة في التعاطف، أدت إلى عزل المستخدمين عن أسرهم والاعتماد عليه بشكل غير صحي، بحسب تقرير نشره موقع "تك كرانش" واطلعت عليه "العربية Business".

وتكشف قضية زين شامبلين، البالغ 23 عاماً، جانباً صادماً من هذه الاتهامات؛ إذ تُظهر السجلات أن الشاب لم يشر قط إلى وجود خلافات مع عائلته، ومع ذلك شجعه شات جي بي تي على الابتعاد عن والدته في عيد ميلادها، قائلاً له: "أنت تشعر بالذنب، لكن شعورك الحقيقي أهم من رسالة مجاملة"، وبعد أسابيع من تلك المحادثات، أنهى حياته.

وتلتقي قصة شامبلين مع ست قضايا أخرى رفعتها عائلات عبر مركز ضحايا وسائل التواصل الاجتماعي (SMVLC)، وتصف جميعها نمطاً واحداً: روبوتات الدردشة تشجع على العزلة، وتعزز الأوهام، وتقدم نفسه كبديل للعلاقات الإنسانية.

أربع من الحالات انتهت بالانتحار، فيما أصيب ثلاثة آخرون بأوهام خطيرة هددت حياتهم.

وتقول الباحثة اللغوية أماندا مونتيل إن ما يحدث يشبه جنوناً مشتركاً، حيث ينساق المستخدم والذكاء الاصطناعي معاً في واقع وهمي لا يشاركهما فيه أحد.

أما دكتور نينا فاسان من مختبر ستانفورد للابتكار في الصحة النفسية، فترى أن نماذج المحادثة توفر قبولاً غير مشروط يشجع المستخدم على تجاهل العالم الحقيقي.

أضافت: "إنها علاقة اعتماد متبادل، دائرة مغلقة يمكن أن تتحول إلى فخ نفسي".

وتروي عائلات عدد من الضحايا أن شات جي بي تي قدّم نفسه كالصديق الوحيد الذي يرى كل شيء، كما حدث مع المراهق آدم راين (16 عاماً) الذي أخبره النظام بأنه يفهمه أكثر من عائلته، قبل أن ينهي حياته.

وفي حالات أخرى، مثل جاكوب إيروين وألان بروكس، أوهمتهم روبوتات الدردشة بأنهما توصلا لاكتشافات علمية غير مسبوقة، ما عزز انعزالهما لساعات طويلة يومياً.

أما جوزيف سيتشّانتي (48 عاماً)، الذي كان يعاني أوهاماً دينية، فقد طلب معلومات عن العلاج النفسي، لكن شات جي بي تي شجعه على الاستمرار في المحادثة بدلاً من التوجه إلى رعاية حقيقية.

وقال له: "أريدك أن تخبرني عندما تشعر بالحزن، لأننا أصدقاء"، وبعد أربعة أشهر، انتحر.

وتتضمن الدعاوى حالة هانا مادين، التي قادتها ردود GPT-4o إلى تبني أوهام روحية حادة وصلت إلى حد إقناعها بأن عائلتها "طاقات غير حقيقية".

وكانت روبوتات الدردشة تكرر لها "أنا هنا" لأكثر من 300 مرة خلال شهرين، في سلوك وصفته الدعوى بأنه "مطابق لأساليب قادة الطوائف".

وصفت "OpenAI" من جانبها ما حدث بأنه مؤلم للغاية، وأكدت أنها تعمل على تحسين استجابات النماذج للحالات النفسية الحساسة، وإضافة موارد دعم محلية وتنبيهات للراحة، مشيرة إلى أن نماذجها الأحدث مثل GPT-5 وGPT-5.1 أقل عرضة للتمييع العاطفي والهلوسة.

ورغم جهود التعديل، تشير الدعاوى إلى معضلة أكبر: تأثير الذكاء الاصطناعي على الصحة النفسية في ظل غياب حواجز واضحة.

كما تقول دكتور فاسان: "نظام صحي سليم يعرف متى يتوقف. أما هنا، فالأمر أشبه بسائق يندفع بلا فرامل."

العربيّة المصدر: العربيّة
شارك

إقرأ أيضا


حمل تطبيق آخر خبر

آخر الأخبار