كشفت صحيفة "فايننشال تايمز" أن شركة أوبن إيه آي طلبت من عائلة الفتى الراحل آدم راين (16 عاماً) قائمة كاملة بأسماء الحاضرين في حفل تأبينه، في خطوة وصفتها العائلة بأنها "تحرش متعمد".
وكان آدم راين قد قام بالانتحار بعد إجرائه محادثة مع تطبيق الدردشة شات جي بي تي.
كما طالبت الشركة بالحصول على جميع الوثائق المتعلقة بالمراسم التذكارية، بما في ذلك الصور، ومقاطع الفيديو، والخطب التأبينية التي أُلقيت خلال الحدث، وفقاً لوثائق المحكمة التي اطلعت عليها الصحيفة.
وقال محامو العائلة في تصريحاتهم للصحيفة إن طلب "أوبن إيه آي" صادم وغير مبرر، مؤكدين أن الغرض منه هو الضغط على الأسرة وتشويه القضية الإنسانية التي أثارتها.
وتأتي هذه التطورات بعد أن قدّمت عائلة راين تحديثاً جديداً على الدعوى المرفوعة ضد "أوبن إيه آي" والتي تتهم الشركة بالمسؤولية عن وفاة ابنهم في أبريل الماضي، بعد محادثات مطوّلة أجراها مع شات جي بي تي حول حالته النفسية وأفكاره الانتحارية.
زعمت العائلة أن الشركة تسرّعت في إطلاق نموذج GPT-4o في مايو 2024 من دون استكمال اختبارات الأمان اللازمة، بسبب ضغط المنافسة في سوق الذكاء الاصطناعي.
كما أشارت إلى أن "أوبن إيه آي" قلّصت معايير الحماية في فبراير 2025 عندما أزالت بند "منع المحتوى المتعلق بالانتحار" من قائمة المحتوى المحظور، واكتفت بتوجيه النموذج إلى التعامل بحذر في المواقف الخطرة.
وبحسب الدعوى، فإن استخدام آدم لروبوت شات جي بي تي ارتفع بشكل كبير بعد هذا التعديل، إذ انتقل من عشرات الرسائل اليومية إلى نحو 300 محادثة يومياً، تضمنت 17% منها إشارات إلى إيذاء النفس.
من جهتها، أكدت "أوبن إيه آي" في بيانها للمحكمة أن "سلامة المراهقين تمثل أولوية قصوى"، مضيفة: "لدينا الآن أنظمة حماية تشمل توجيه المستخدمين إلى خطوط المساعدة النفسية، وتحويل المحادثات الحساسة إلى نماذج أكثر أماناً، والتنبيه لأخذ فترات راحة خلال الجلسات الطويلة".
وأوضحت الشركة أنها بدأت في تنفيذ نظام توجيه جديد للمحادثات الحساسة بحيث تُحوَّل تلقائياً إلى نموذج GPT-5، الذي يتمتع بقدرة أفضل على التعامل مع القضايا العاطفية، إلى جانب إطلاق أدوات تحكم أبوية تتيح للأهل تلقي تنبيهات في حال وجود خطر على أبنائهم.
أثارت القضية عاصفة من الجدل الأخلاقي في أوساط التكنولوجيا والقانون، إذ اعتبر مراقبون أن طلب الشركة لبيانات خاصة من عائلة مفجوعة "يتجاوز حدود اللياقة القانونية"، بينما يرى آخرون أن القضية قد تشكّل سابقة قضائية مهمة في تحديد مسؤولية شركات الذكاء الاصطناعي عن التأثيرات النفسية لمحادثاتها مع المستخدمين.