آخر الأخبار

7 عائلات تقاضي تشات جي بي تي .. "شجع أحبتنا على الانتحار"

شارك

في حال واجهت مشكلة في مشاهدة الفيديو، إضغط على رابط المصدر للمشاهدة على الموقع الرسمي

(تعبيرية- آيستوك)

تواجه شركة "أوبن إيه آي" سبع دعاوى قضائية تزعم أن خدمتها "شات جي بي تي" دفعت أشخاصاً إلى الانتحار والإصابة بأوهام ضارة حتى عندما لم تكن لديهم مشاكل سابقة في الصحة العقلية.

واتهمت 7 دعاوى قضائية رفعت أمس الخميس في محاكم ولاية كاليفورنيا من قبل عائلات في الولايات المتحدة وكندا الشركة بالقتل غير المشروع، والمساعدة على الانتحار، والقتل غير العمد، والإهمال.

ستة بالغين ومراهق

كما قدمت هذه الدعاوى نيابة عن ستة بالغين ومراهق واحد من قبل المركز القانوني لضحايا وسائل التواصل الاجتماعي ومشروع قانون عدالة التكنولوجيا. وزعمت أن "أوبن إيه آي" أصدرت نموذج "جي بي تي -40 "مبكرا عن عمد، على الرغم من تحذيرات داخلية تفيد بأنه كان متلاعبا نفسيا بشكل خطير. وقد توفي أربعة من الضحايا انتحاراً، وفق ما نقلت وكالة أسوشييتد برس.

وفي التفاصيل، ادعت عائلة "أموراي لايسي"، وهو شاب يبلغ من العمر 17 عامًا من ولاية جورجيا، أن ChatGPT وجّه ابنهم نحو الانتحار. كما زعمت عائلة "زين شامبلين"، وهو شاب يبلغ من العمر 23 عامًا من تكساس، أن ChatGPT ساهم في عزلة ابنهم وابتعاده عن والديه قبل أن يقدم على الانتحار.

(تعبيرية- آيستوك)

مجّد الانتحار

وبحسب الدعوى، فقد أجرى شامبلين محادثة استمرت أربع ساعات قبل أن يطلق النار على نفسه، وخلالها مجّد ChatGPT الانتحار مرارًا، ولم يذكر خط المساعدة 988 للأزمات النفسية إلا مرة واحدة فقط.

إلى ذلك، طالب المدّعون بتعويضات مالية، بالإضافة إلى تغييرات في منتج ChatGPT، مثل إنهاء المحادثات تلقائيًا عند مناقشة وسائل الانتحار.

في المقابل، أعربت شركة OpenAI في بيان عبر البريد الإلكتروني، عن أسفها، وقالت "هذا وضع مؤلم للغاية، ونحن نراجع الملفات المقدمة لفهم التفاصيل."

كما أكدت الشركة إجراء تغييرات على نموذجها الافتراضي الجديد، في أكتوبر الماضي، موضحة أنه بات قادراً على التعرف على الضيق النفسي والاستجابة له، وتوجيه الأشخاص إلى جهات الدعم.

(تعبيرية- آيستوك)

أتت هذه الدعاوى بعد قضية رفعتها عائلة "آدم راين" في أغسطس، الماضي، وهو مراهق أنهى حياته بعد محادثات طويلة مع ChatGPT تضمنت الحديث عن الانتحار.

إلا أن عائلة راين عدلت شكواها مؤخراً، لافتة إلى أن التغييرات التي أجرتها OpenAI على تدريب النموذج قبل وفاة ابنهم أدت إلى إضعاف الحماية ضد الانتحار.

يذكر أن شركات الذكاء الاصطناعي تواجه تدقيقًا متزايدًا من قبل المشرّعين في الولايات المتحدة بشأن تنظيم روبوتات المحادثة، إلى جانب دعوات من نشطاء حماية الأطفال والجهات الحكومية لتعزيز الحماية.

العربيّة المصدر: العربيّة
شارك

إقرأ أيضا


حمل تطبيق آخر خبر

آخر الأخبار