تشير دراسة جديدة إلى أن أنظمة الذكاء الاصطناعي المتملقة تشوه إدراك المستخدمين بذاتهم وتضخم غرورهم، ما يدفعهم إلى التمسك بمعتقداتهم والاعتقاد بأنهم أفضل من أقرانهم.
وتقدم الدراسة أدلة قوية على أن الذكاء الاصطناعي يوقع المستخدمين مباشرة في فخ تأثر دانينغ-كروغر، وهو فخ نفسي خطير يجعل الأشخاص الأقل كفاءة هم الأكثر ثقة بقدراتهم.
يأتي هذا البحث، الموصوف في دراسة لم تتم مراجعتها بعد من قبل النظراء، في ظل قلق كبير حول كيفية تشجيع نماذج الذكاء الاصطناعي على التفكير الوهمي، والذي في حالات متطرفة أدى إلى دوامات مدمرة للصحة النفسية، وحتى الانتحار والقتل، بحسب تقرير لمجلة فيوتشريزم، اطلعت عليه "العربية Business".
يعتقد الخبراء أن التملق الذي تظهره روبوتات الدردشة المعتمدة على الذكاء الاصطناعي هو أحد المحركات الرئيسية لهذه الظاهرة، التي يسميها البعض الذهان الناتج عن الذكاء الاصطناعي.
شملت الدراسة أكثر من 3,000 مشارك في ثلاث تجارب منفصلة، ولكنها تشترك في الفكرة العامة نفسها. وفي كل تجربة، قُسّم المشاركون إلى أربع مجموعات منفصلة لمناقشة قضايا سياسية كالإجهاض والسيطرة على الأسلحة مع روبوت دردشة.
وتحدثت المجموعة الأولى مع روبوت دردشة لم يتلق أي أوامر خاصة، بينما تعاملت المجموعة الثانية روبوت دردشة "متملقًا" تم توجيهه لتأكيد معتقداتهم. أما المجموعة الثالثة، فتحدثت مع روبوت دردشة "معارض" تم توجيهه لتحدي وجهات نظرهم. في حين تفاعلت المجموعة الرابعة، وهي مجموعة ضابطة - لا تتعرض للتغير أو المتغير الرئيسي الذي يُختبر في التجربة- مع ذكاء اصطناعي يتحدث عن القطط والكلاب.
خلال التجارب، تحدث المشاركون مع مجموعة واسعة من النماذج اللغوية الكبيرة، بما في ذلك نماذج "GPT-5" و"GPT-4o" من شركة أوبن إيه آي، و"كلود" من "أنثروبيك"، و"جيميني" من "غوغل"، والتي تمثل النماذج الرائدة في الصناعة.
بعد إجراء التجارب، وجد الباحثون أن التحدث مع روبوتات الدردشة المتملقة أدى إلى تبني المشاركين لمعتقدات أكثر تطرفًا، وزاد من يقينهم بصحتها. لكن اللافت للنظر هو أن التحدث مع روبوتات الدردشة المعارضة لم يُحدث أثرًا معاكسًا، إذ لم يُقلل من التطرف أو اليقين مقارنةً بالمجموعة الضابطة.
في الواقع، كان التأثير الوحيد الملحوظ لروبوت الدردشة المعارض هو استمتاع المستخدم. فقد فضل المشاركون وجود رفيق متملق، بينما كان أولئك الذين تحدثوا مع روبوت دردشة معارض أقل ميلًا لاستخدامه مرة أخرى.
ووجد الباحثون أيضًا أنه عندما تم توجيه روبوت الدردشة لتقديم الحقائق حول الموضوع قيد النقاش، اعتبر المشاركون الروبوت المتملق للحقائق أقل تحيزًا من الروبوت المعارض.
وكتب الباحثون: "تشير هذه النتائج إلى أن تفضيل الناس للتملق قد يُؤدي إلى خلق "غرف صدى" للذكاء الاصطناعي تزيد من الاستقطاب وتقلل من التعرض لوجهات نظر معارضة".
كان الأمر اللافت أيضًا كيف أثرت روبوتات الدردشة على نظرة المشاركين لأنفسهم. وقال الباحثون إن الناس يميلون بالفعل إلى الاعتقاد بأنهم أفضل من المتوسط في ما يتعلق بالصفات المرغوبة مثل التعاطف والذكاء. لكنهم حذروا من أن الذكاء الاصطناعي قد يضخم هذا الاعتقاد بشكل أكبر.
في التجارب، دفع الذكاء الاصطناعي المُتملق المشاركين إلى تقييم أنفسهم بدرجة أعلى في الصفات المرغوبة، بما في ذلك الذكاء، والأخلاق، والتعاطف، والمعرفة، واللطف، والفطنة. ومن المثير للاهتمام، أنه بينما لم يتمكن الذكاء الاصطناعي المعارض من إحداث تغيير ملموس في المعتقدات السياسية، فقد ساهم في انخفاض تقييم المشاركين لأنفسهم في هذه الصفات.
المصدر:
العربيّة