كشفت دراسة حديثة أن محاولات روبوتات الدردشة لإظهار التعاطف مع المستخدمين قد تأتي بنتائج عكسية، خاصة في حالات فشل الخدمة، حيث يشعر العملاء بعدم الارتياح بدلاً من التهدئة.
وبحسب ما أورده موقع "Techxplore"، فقد توصلت دراسة منشورة في مجلة "MIS Quarterly" إلى أن عبارات مثل “أتفهم إحباطك” عندما تصدر عن روبوتات الدردشة مثل تشات جي بي تي قد تؤدي إلى نتائج سلبية.
وأجرى باحثون من جامعة ماكجيل وجامعة جنوب فلوريدا وجامعة هونغ كونغ المعمدانية، ثلاث تجارب مختلفة، تفاعل خلالها المشاركون مع روبوتات دردشة ارتكبت أخطاء في تقديم الخدمة.
وفي بعض الحالات، استخدمت الروبوتات عبارات تعاطفية بعد الخطأ، بينما اكتفت في حالات أخرى بالرد المباشر دون الإشارة إلى مشاعر المستخدم.
وكانت النتيجة أن التعاطف الاصطناعي لم يحقق الغرض منه، بل أثار ما يُعرف بالرفض النفسي، وهو رد فعل سلبي يحدث عندما يشعر الأفراد بأن حريتهم أو سيطرتهم مهددة.
ويرى الباحثون أن إحساس المستخدم بأن النظام قام بتحليل مشاعره والرد عليها قد يبدو تدخلياً وغير مريح، ما ينعكس سلباً على مستوى الرضا عن الخدمة.
وتشير الدراسة إلى أن نقل أساليب التعاطف البشري إلى الأنظمة الذكية لا ينجح دائماً، ما يستدعي إعادة التفكير في تصميم تفاعلات هذه الأنظمة.
وبدلاً من ذلك، ينصح الباحثون بالاعتماد على أساليب بديلة، مثل الاعتذار المباشر أو استخدام أسلوب بسيط وواضح، وربما إدخال بعض الفكاهة أو العبارات الإيجابية، دون محاولة محاكاة المشاعر الإنسانية بشكل مبالغ فيه.
وتخلص الدراسة إلى أن جعل روبوتات الدردشة تبدو أكثر إنسانية ليس دائماً الخيار الأفضل، إذ قد يكون من الأنسب في بعض الحالات أن تظل هذه الأنظمة في إطارها الوظيفي الواضح بعيداً عن التعاطف المصطنع.
المصدر:
العربيّة