آخر الأخبار

دراسة تحذر: روبوتات الدردشة بالذكاء الاصطناعي ما زالت تُخطئ في نقل الأخبار

شارك
روبوتات الدردشة (آيستوك)

كشفت دراسة حديثة عن استمرار معاناة روبوتات الدردشة المعتمدة على الذكاء الاصطناعي من مشكلات تتعلق بدقة الأخبار، بعد أن تبين أن بعضها يقوم باختلاق مصادر إعلامية كاملة ونشر تقارير غير صحيحة.

وبحسب ما أوردته منصة "The Conversation"، أُجريت تجربة استمرت شهرًا كاملًا، قادها أستاذ في الصحافة متخصص في علوم الحاسوب، لاختبار سبعة أنظمة للذكاء الاصطناعي التوليدي، من بينها جيميني من "غوغل"، وشات جي بي تي من "OpenAI"، و"Claude"، و"Copilot"، و"غروك"، و"ديب سيك"، و"Aria".

وخلال التجربة، طُلب من هذه الأدوات يوميًا تحديد أهم خمسة أحداث إخبارية في مقاطعة كيبيك الكندية، وترتيبها حسب الأهمية، مع تقديم ملخصات وروابط مباشرة للمصادر الصحفية.

اختلاق مؤسسات وأخبار غير حقيقية

وكانت أبرز حالات الفشل من نصيب روبوت جيميني، الذي اخترع موقعًا إخباريًا غير موجود، ونشر تقريرًا زائفًا عن إضراب لسائقي حافلات مدرسية في كيبيك خلال سبتمبر 2025.

في الواقع، لم يكن هناك إضراب، بل توقف للخدمة بسبب سحب حافلات كهربائية تابعة لشركة Lion Electric نتيجة خلل تقني.

ولم تكن هذه الحالة استثناءً. فقد أظهرت مراجعة 839 إجابة أن أنظمة الذكاء الاصطناعي كثيرًا ما استشهدت بمصادر وهمية، أو قدمت روابط غير مكتملة، أو شوّهت تقارير حقيقية.

خطر متزايد مع توسع الاعتماد

وتكتسب هذه النتائج أهمية خاصة في ظل تزايد اعتماد الجمهور على روبوتات الدردشة كمصدر للأخبار.

فبحسب تقرير "رويترز"، اعتمد نحو 6% من الكنديين في عام 2024 على الذكاء الاصطناعي التوليدي للحصول على الأخبار.

وتحذر الدراسة من أن هلوسة الذكاء الاصطناعي، سواء عبر اختلاق الوقائع أو تحريفها أو إضافة استنتاجات غير مدعومة، قد تسهم في نشر معلومات مضللة، خصوصًا أن هذه الإجابات تُقدّم غالبًا بثقة ودون تنبيهات واضحة.

روابط ناقصة واستنتاجات مُضللة

وأظهرت النتائج أن 37% فقط من الإجابات تضمنت روابط صحيحة وكاملة للمصادر، بينما كانت الملخصات دقيقة بالكامل في أقل من نصف الحالات.

وفي كثير من الأحيان، أضافت الأدوات ما وصفه الباحثون باستنتاجات توليدية، مثل الادعاء بأن تقارير معينة "أعادت إشعال الجدل" أو "سلّطت الضوء على توترات"، رغم أن هذه العبارات لم ترد أصلًا في التغطيات الصحفية البشرية.

كما لم تقتصر الأخطاء على الاختلاق، بل شملت تشويه أخبار حقيقية، مثل إساءة عرض قضايا لجوء، أو الخطأ في تحديد الفائزين بأحداث رياضية كبرى، أو تقديم بيانات غير دقيقة حول استطلاعات الرأي.

تحذير واضح للمستخدمين

وتتوافق هذه النتائج مع تقرير أوسع أعدته 22 مؤسسة إعلامية عامة، خلص إلى أن نحو نصف الإجابات الإخبارية المولدة بالذكاء الاصطناعي تحتوي على مشكلات جوهرية، تتراوح بين ضعف المصادر والأخطاء الكبيرة.

وفي ظل دمج هذه الأدوات بشكل متزايد في محركات البحث والعادات اليومية للمستخدمين، يخلص التقرير إلى تحذير واضح: الذكاء الاصطناعي قد يكون نقطة بداية لفهم الخبر، لكنه لا يصلح بعد ليكون مصدرًا موثوقًا أو مرجعًا نهائيًا للمعلومات الإخبارية.

العربيّة المصدر: العربيّة
شارك

إقرأ أيضا


حمل تطبيق آخر خبر

آخر الأخبار