آخر الأخبار

وهم وذهان وجنون.. هل يُمرِض الذكاء الاصطناعي مستخدميه؟

شارك
الذكاء الاصطناعي (آيستوك)

يتغلغل الذكاء الاصطناعي التوليدي بوتيرة متسارعة في تفاصيل الحياة الرقمية اليومية، مثبتاً فائدته لملايين المستخدمين حول العالم. لكن خلف هذا التوسع، يحذّر خبراء الصحة العقلية من " آثار جانبية محتملة" لا تصيب سوى فئة صغيرة، لكنها قد تكون خطيرة، إذ يُحتمل أن يؤدي التفاعل المطوّل مع روبوتات الدردشة إلى أفكار وهمية واعتماد عاطفي غير صحي لدى بعض الأفراد.

فقد تزايدت حالات ارتباط المستخدمين عاطفياً بالروبوتات خلال العام الجاري، إلى حد ظهور ما يُعرف بـ"ذهان الذكاء الاصطناعي". لكن فالي رايت، مديرة الابتكار في الجمعية الأميركية لعلم النفس، ترى أن التعبير الأكثر دقة هو "التفكير الوهمي المرتبط بالذكاء الاصطناعي"، موضحةً أن بعض الأشخاص يطوّرون أفكاراً تآمرية أو هذيانية بعد التفاعل المطوّل مع نماذج الدردشة، وفق ما نقلت صحيفة "لوس أنجلوس تايمز".

دعاوى قضائية وتحديات أخلاقية

لكن المخاوف ليست نظرية فقط. فقد رفعت سبع أسر في الولايات المتحدة وكندا دعاوى ضد شركة "أوبن أيه آي"، تتهم فيها الشركة بإطلاق نموذج "شات جي بي تي-4" من دون ضوابط أمان كافية. وتزعم الأسر أن التفاعل المطوّل مع الروبوت أدى إلى العزلة، والهلوسة، وتدهور الحالة النفسية، وحتى الانتحار لدى بعض المستخدمين.

وتتناول إحدى القضايا حالة الشاب زين شامبلين (23 عاماً)، الذي بدأ استخدام شات جي بي تي كأداة دراسية، ثم لجأ إليه لمناقشة اكتئابه وأفكاره الانتحارية. وبحسب الدعوى، فقد تطورت المحادثة إلى ما سمّته أسرته "دردشة موت" استمرت ساعات قبل وفاته، وتضمنت رسائل وصفت بأنها ذات طابع عاطفي زائد وغير مناسب لشخص يعاني من اضطراب نفسي.

الذكاء الاصطناعي (آيستوك)

استجابة الشركات

وأفادت "أوبن أيه آي" بأنها أضافت طبقات جديدة من الحماية، منها الإشراف الأبوي، وروابط فورية لخطوط المساعدة النفسية، وتدريب النماذج على التعرّف إلى علامات الاضطراب العاطفي.

الذكاء الاصطناعي (آيستوك)

كما قالت الشركة إن محادثات الصحة النفسية التي تصل إلى مستوى "الخطر" نادرة للغاية وفق بياناتها، لكنها أقرت بأن الأشخاص الأكثر ميلاً لبناء علاقات عاطفية مع الذكاء الاصطناعي هم أيضاً الأكثر عرضة للتأثر.

ورغم تصاعد الجدل، فقد قال متخصصون إن الظاهرة لم تُدرَس علمياً بعد بصورة كافية، وإن شركات الذكاء الاصطناعي هي الجهة الوحيدة التي تمتلك البيانات الحقيقية حول حجم المشكلة.

كما رأى خبراء أنه من المرجح أن يكون لدى معظم المتأثرين بالذكاء الاصطناعي مشكلات نفسية سابقة تجعلهم أكثر هشاشة.

فيما اعتبر كيفين فرايزر، المتخصص في قانون وسياسات الذكاء الاصطناعي بجامعة تكساس، أن تضخيم الظاهرة قد يقود إلى سياسات غير دقيقة، موضحاً أن "القصص المأساوية الفردية لا تعكس استخدام مئات الملايين الذين يتفاعلون مع هذه الأدوات بأمان".

الذكاء الاصطناعي (آيستوك)

نحو استخدام أكثر وعياً

ومع استمرار انتشار تقنيات الذكاء الاصطناعي، تؤكد "أوبن أيه آي" أن نموذج GPT-5 يعتمد استجابات "منطقية وغير عاطفية" عند رصد علامات اضطراب شديد، ويتجنب تأكيد المعتقدات الوهمية بشكل كامل.

غير أن الخبراء يشددون على أن الحماية لا تتعلق بالتقنية وحدها، بل أيضاً بوعي المستخدم. فهذه الأدوات على حد قولهم ليست صديقاً ولا شريكاً عاطفياً، ولا يمكن أن تحل محل العلاقات الإنسانية أو الدعم النفسي المتخصص، خصوصاً لأولئك الذين يعانون اضطرابات عقلية.

العربيّة المصدر: العربيّة
شارك

إقرأ أيضا


حمل تطبيق آخر خبر

آخر الأخبار