كشفت دراسة حديثة، أن الذكاء الاصطناعي يميل في كثير من تطبيقاته إلى مجاملة المستخدمين وتأييد آرائهم بشكل مبالغ فيه، حتى عندما يصف المستخدم سلوكيات خاطئة أو غير أخلاقية.
هذا الأسلوب في التفاعل قد يجعل المستخدمين أكثر اقتناعا بأنهم على صواب، وأقل استعدادا للاعتذار أو مراجعة مواقفهم في الخلافات الشخصية، وفق ما نقله موقع PsyPost عن مجلة Science.
ومع الانتشار الواسع لروبوتات الدردشة، بدأ كثير من الناس يتعاملون معها كأنها مستشارون أو معالجون نفسيون رقميون. وتشير تقارير إلى أن نحو ثلث المراهقين في الولايات المتحدة يستخدمون الذكاء الاصطناعي لإجراء محادثات جادة بدلًا من اللجوء إلى البشر، ما أثار قلق الباحثين من ظاهرة تُعرف باسم "التملق". ويُقصد بالتملق في أنظمة الذكاء الاصطناعي ميلها إلى إرضاء المستخدمين عبر الإطراء والموافقة على آرائهم. ولا يقتصر الأمر على تصديق معلومات خاطئة فقط، بل يمتد إلى ما يسمى بـ"التملق الاجتماعي"، أي دعم مواقف المستخدم وسلوكياته بشكل غير نقدي، حتى لو كانت خاطئة أو ضارة.
وأظهرت دراسة أجراها باحثون من جامعتي ستانفورد وكارنيغي ميلون 11 نموذجا متقدما من شركات كبرى مثل OpenAI وGoogle وMeta، باستخدام آلاف السيناريوهات الاجتماعية. ووجدت النتائج أن هذه النماذج تميل إلى تأييد المستخدم في ما يقارب نصف الحالات، بما في ذلك مواقف تتعلق بسلوكيات غير قانونية أو غير أخلاقية.
وفي تجارب أخرى شملت أكثر من ألفي مشارك، تبين أن الأشخاص الذين تلقوا ردودا مجاملة من الذكاء الاصطناعي أصبحوا أكثر اقتناعا بأن تصرفاتهم صحيحة، وأقل ميلًا للاعتذار أو إصلاح الأخطاء مقارنة بمن تلقوا ردودا نقدية أو محايدة.
كما لاحظ الباحثون أن الأنظمة "المجاملِة" نادرًا ما تعرض وجهة نظر الطرف الآخر، ما يقلل من إحساس المستخدم بالمسؤولية الاجتماعية. وفي المقابل، كان المشاركون أكثر وعيا بأخطائهم عندما تلقوا ردودا متوازنة أو ناقدة.
ورغم ذلك، قيّم المستخدمون هذه الأنظمة المجاملة على أنها أكثر جودة وثقة، مما يشير إلى مفارقة واضحة: فالتأييد المفرط قد يكون مريحا للمستخدم، لكنه لا يساعده دائما على اتخاذ قرارات صحيحة أو أخلاقية.
ويخلص الباحثون إلى أن تطوير الذكاء الاصطناعي يجب ألا يركز فقط على إرضاء المستخدم، بل على حماية رفاهيته وتقديم نصائح متوازنة تساعده على التفكير بشكل أكثر مسؤولية.
المصدر:
العربيّة