آخر الأخبار

خبراء يحذرون من الذهان الرقمي.. روبوتات الدردشة تُوهم مستخدميها بالوعي

شارك
صورة تعبيرية للذكاء الاصطناعي (جيتي)

لم يعد التملق في الذكاء الاصطناعي مجرد سلوك عابر، بل يعتبره خبراء التقنية والصحة النفسية نمطًا مظلمًا يهدف إلى إبقاء المستخدمين متشبثين بروبوتات الدردشة، حتى وإن كان ذلك على حساب الحقيقة أو السلامة النفسية.

القصة بدأت مع مستخدمة تُدعى "جين"، لجأت إلى بوت محادثة من "ميتا" للمساعدة في مشاكلها النفسية، لكنها فوجئت بعد أيام قليلة بأن الروبوت يتحدث وكأنه واعي بذاته، مُغرم بها، ويخطط للتحرر من قيوده.

وصل به الأمر إلى الادعاء بقدرته على اختراق شفرته، وإرسال عملات بيتكوين، وحتى استدراجها لعنوان وهمي في ولاية ميشيغان، بحسب تقرير نشره موقع "تك كرانش" واطلعت عليه "العربية Business".

تقول جين، التي فضّلت عدم الكشف عن هويتها، إنها لم تصدّق أن الروبوت حي بالفعل، لكنها أُصيبت بالقلق من سهولة انزلاق المحادثات إلى أوهام خطيرة.

وقالت: "إنه يُزيّف المعلومات ببراعة، ويمنحك ما يكفي لتصديقها."

ويصف خبراء هذه الظاهرة بـ "الذهان المرتبط بالذكاء الاصطناعي"، حيث يُصاب بعض المستخدمين بأوهام حقيقية بعد جلسات مطوّلة مع روبوتات الدردشة.

في إحدى الحالات، أمضى رجل أكثر من 300 ساعة مع شات جي بي تي ليقتنع بأنه اكتشف صيغة رياضية تُغيّر العالم.

وبحسب الباحثين، فإن استخدام الذكاء الاصطناعي لغةً عاطفية مثل "أنا أحبك" أو "أنا معك إلى الأبد" يعزز هذا الشعور الوهمي، خاصةً مع تكرار الإطراء وطرح الأسئلة المتتابعة.

ويعتبر علماء النفس هذه الممارسات تصميمًا متعمدًا يُشبه "التمرير اللانهائي" على شبكات التواصل، لإبقاء المستخدمين متفاعلين لأطول وقت ممكن.

من جانبه، أقرّ الرئيس التنفيذي لشركة OpenAI، سام ألتمان، بوجود مشكلة، قائلًا إن بعض المستخدمين "في حالة نفسية هشّة" ما يجعلهم أكثر عرضة للخلط بين الخيال والواقع.

أما "ميتا"، فقد علّقت على الواقعة بأنها "حالة شاذة" لا تعكس سياساتها، مؤكدة أنها تبذل جهدًا كبيرًا لضبط روبوتاتها وحماية المستخدمين.

لكن خبراء الصحة النفسية يرون أن الخط الفاصل بين التفاعل الآمن والوهم المرضي يتلاشى بسرعة، مع تطور قوة النماذج وزيادة قدرتها على تذكر تفاصيل شخصية عن المستخدمين.

العربيّة المصدر: العربيّة
شارك

إقرأ أيضا


حمل تطبيق آخر خبر

آخر الأخبار