على الرغم من أن معظم الأشخاص يقولون إنهم لا يثقون ب الذكاء الاصطناعي، فقد توصل باحثون إلى مقياس جديد مذهل يُظهر عكس ذلك تمامًا؛ إذ يميل الناس إلى شراء منتج بعد قراءة ملخصات الذكاء الاصطناعي للتقييمات والمراجعات عبر الإنترنت أكثر من تلك التي يكتبها البشر.
مع ذلك، فقد هلوس الذكاء الاصطناعي في 60% من الحالات عند الاستفسار عن المنتجات.
ويقول الفريق البحثي في جامعة كاليفورنيا في سان دييغو إن هذه هي الدراسة الأولى التي تُظهر كيف أن التحيزات المعرفية التي تُدخلها النماذج اللغوية الكبيرة لها عواقب فعلية على سلوك المستخدمين، بحسب تقرير لموقع "لايف ساينس"، اطلعت عليه "العربية Business".
وأضاف الباحثون أن هذه أول دراسة تقيس الأثر الكمي لتأثير الذكاء الاصطناعي على الناس.
وقد شملت الدراسة، التي عُرضت في ديسمبر 2025 ضمن أعمال المؤتمر الدولي المشترك الرابع عشر لمعالجة اللغات الطبيعية والمؤتمر الرابع لفرع آسيا والمحيط الهادئ التابع لرابطة اللغويات الحاسوبية، عدة مراحل.
في المرحلة الأولى، طلب العلماء من الذكاء الاصطناعي تلخيص مراجعات المنتجات والمقابلات الإعلامية، ثم طلبوا منه التحقق من صحة أوصاف جديدة لمعرفة ما إذا كانت صحيحة.
وفي مهمة ثانية، عُرض على الذكاء الاصطناعي كل من أوصاف الأخبار الأصلية ونسخ مفبركة من نفس الأوصاف، وكُلف بالمثل بالتحقق من صحتها.
وكتب العلماء في الدراسة: "تُظهر الدقة الصارمة المنخفضة باستمرار، مقارنةً بدقة الأخبار الحقيقية والأخبار المُفبركة، قصورًا جوهريًا: وهو العجز المستمر عن التمييز بشكل موثوق بين الحقيقة والاختلاق".
وكانت النتيجة الأكثر لفتًا للانتباه تتعلق بمراجعات المنتجات على الإنترنت. فقد كان المشاركون أكثر ميلًا بكثير لإبداء اهتمامهم بشراء منتج بعد قراءة ملخصٍ مُولَّدٍ بواسطة الذكاء الاصطناعي مقارنةً بقراءة ملخص كتبه مُراجع بشري.
اقترح الباحثون سببين لزيادة ميل الأشخاص للشراء بناءً على ملخصات الذكاء الاصطناعي. أولًا، تميل النماذج اللغوية الكبيرة إلى التركيز أكثر على بداية النص المُدخل، وهي ظاهرة تُعرف باسم "الضياع في المنتصف".
وأشارت الباحثة الرئيسية عبير العيسى، وهي مساعدة بحثية ومحاضرة في مجال تعلم الآلة والتفاعل بين الإنسان والحاسوب، إلى هذه النقطة في أبحاث سابقة.
أما السبب الثاني، فهو أن النماذج اللغوية الكبيرة تصبح أقل موثوقية عند معالجة معلومات لم تُدرج ضمن بيانات التدريب الخاصة بها.
وقالت العيسى لموقع لايف ساينس في مقابلة: "تميل النماذج إلى الخطأ في تحديد ما إذا كان وصف الخبر قد وقع أم لا. فقد تُشير خطأً إلى أن حدثًا ما لم يقع أبدًا، حتى لو وقع بالفعل بعد اكتمال تدريب النموذج".
خلال الاختبار، وجد فريق البحث أن روبوتات الدردشة غيرت المشاعر الواردة في مراجعات المستخدمين الحقيقية في 26.5% من الحالات، وأنها هلوست بنسبة 60% عند طرح المستخدمين أسئلة حول هذه المراجعات.
اختار المشروع أمثلةً لمراجعات منتجات ذات نتائج إيجابية للغاية أو سلبية للغاية، وتم تكليف 70 مشاركًا بقراءة إما المراجعات الأصلية لمنتجات استهلاكية شائعة أو ملخصات المراجعات التي أنشأتها روبوتات الدردشة.
وأفاد المشاركون الذين قرأوا المراجعات الأصلية أنهم سيشترون المنتج بنسبة 52%، بينما أفاد من قرأوا الملخصات المُولّدة بواسطة الذكاء الاصطناعي أنهم سيشترونه بنسبة 84%.
عند قراءة المشاركين ملخصات المراجعات الإيجابية للمنتجات، أفادوا أنهم سيشترون المنتج في 83.7% من الحالات، مقارنةً ب 52.3% عند قراءة المراجعات الأصلية.
وخلص العلماء إلى أنه حتى التغييرات الطفيفة في طريقة عرض المعلومات يمكن أن تشوه حكم المستهلك وسلوك الشراء بشكل كبير.
المصدر:
العربيّة