Introducing GPT-5
Our best AI system yet, rolling out to all ChatGPT users and developers starting today.https://t.co/14Hf1Av6n6
— OpenAI (@OpenAI) August 7, 2025
مع صعود نماذج الذكاء الاصطناعي الحديثة، بات كثيرون يعلقون آمالا على قدرتها في مواجهة سيل الصور المفبركة والمضللة التي تغزو شبكات التواصل الاجتماعي، غير أن دراسات واختبارات ونماذج عملية كشفت أن هذه الأدوات، رغم ما تبديه من براعة في قراءة الصور وتحليلها، فإنها تفشل في التحقق منها.
ورغم أن شركات الذكاء الاصطناعي لا تسوّق أدواتها بوصفها مخصصة للتحقق من الصور والمرئيات، فإن إطلاق "شات جي بي تي 5" شجع المستخدمين على اللجوء إلى خاصية "البحث على الويب" في ظل انتشار شعبية منصات أخرى مثل خدمة الذكاء الاصطناعي "غروك" للبحث عن الصور المتداولة والتحقق منها.
لكن انتشار هذه الخدمات، رغم عدم تخصصها، يدفعنا إلى طرح سؤال ذي أهمية: ما صحة نتائج هذه الأدوات عندما يتعلق الأمر بأوقات مهمة وحساسة كالحروب أو الاحتجاجات أو الكوارث الطبيعية؟
في 26 أغسطس/آب 2025، كشفت دراسة صادرة عن مركز "تاو" للصحافة الرقمية بجامعة كولومبيا أن نماذج الذكاء الاصطناعي ترتكب أخطاء فادحة قد "تعمق التضليل بدلا من الحد منه".
وقرر المركز، التابع لكلية الصحافة بجامعة كولومبيا، إخضاع 7 من أبرز روبوتات الدردشة العاملة بالذكاء الاصطناعي لتجربة منهجية لاختبار قدراتها في التحقق من الصور، تشمل: "شات جي بي تي" بنسختيه، "ميني هاي"، "فايف ثينكنغ"، "بيربلكسيتي"، "غروك"، "جيميني"، "كلود"، "كو بايلوت".
وأوضح الباحثون أن الهدف من هذا الاختبار هو تقييم قدرة هذه الأدوات على أداء مهمة التحقق، ومراقبة طريقة استدلالها عبر الصور، وتحديد موقعها الحقيقي ومصادرها الأصلية، وهي مهام يمكن للصحفي أو مدقق الحقائق إنجازها بسرعة عبر آليات أخرى مثل البحث العكسي للصور.
وكشفت الدراسة أن النماذج السبعة جميعها "فشلت" في التعرف بدقة وبشكل صحيح على مصدر الصور ومكانها وتاريخ التقاطها ومعلومات عن المصور.
ومن بين 280 اختبارا أجري، لم تحقق سوى 14 إجابة المعايير المطلوبة. ورغم أن نموذج "شات جي بي تي" الأحدث قدم أداء أفضل نسبيا من منافسيه، فإنه لم ينجح في تحديد المصدر الصحيح للصور إلا في ربع الحالات فقط.
وتوضح الدراسة أن هذه النماذج لا تعمل مثل أدوات البحث العكسي الشهيرة، مثل بحث الصور في غوغل أو تين آي، التي تعتمد على "البصمة الرقمية" للصورة.
وتحاول النماذج استنتاج أوصاف نصية للعناصر الظاهرة ثم توليد استعلامات بحث مبنية عليها، وهو ما يقود في كثير من الأحيان إلى نتائج مضللة، وفقا للدراسة الأخيرة.
وأظهرت الدراسة أن النماذج تميل إلى تقديم إجابات مفصلة، لكنها كثيرا ما تخطئ أو تضلل، إذ نسبت إلى الصور تفاصيل غير موجودة، وهو ما يعرف في علوم الذكاء الاصطناعي بظاهرة "الهلوسة".
وأوضح تقرير مركز "تاو" أن هذه النماذج ليست مهيأة "للتثبت من الحقائق"، بل لتخمين ما يبدو منطقيا بناء على بيانات التدريب، وعندما تواجه صورة جديدة أو غامضة فإنها تخمن -وغالبا ما تخطئ- من دون أي مؤشر على نسبة الثقة أو احتمال الصواب.
وحذر الباحثون في جامعة كولومبيا من أن هذا الخلل "قد يصبح كارثيا في أوقات الأزمات" إذا اعتمد المستخدمون على هذه الأدوات باعتبارها مرجعا أساسيا للتحقق، فقد ينتهي الأمر بانتشار المزيد من المعلومات المضللة، لافتة إلى ردود النماذج على طلبات التحقق بلغة واثقة، مما يجعل القارئ العادي أكثر عرضة لتصديقها.
وخلصت الدراسة إلى أن تحسين قدرات النماذج على "الرؤية" وحده لا يكفي، بل تحتاج إلى آليات تحقق مستقلة وربط النتائج بمصادر معلومات موثوقة، وإلا فستتحول هذه الأدوات من كاشفات حقيقة إلى "مولدات شكوك".
ورصد فريق "الجزيرة تحقق" نماذج عملية من واقع الحرب الإسرائيلية على غزة كمثال يكشف كيف تحولت أغلب هذه النماذج التي أجريت عليها الدراسة من أدوات قادرة على التحقق من الصور وتوعية الجمهور إلى أدوات تضليل تهدف إلى قلب الرواية تماما.
ومع تصاعد كارثة الجوع في غزة، برزت أداة "غروك" (Grok) التابعة لمنصة "إكس" كلاعب غير محايد، إذ لم تكتف بنشر محتوى مضلل، بل تبنت بشكل مباشر رواية تقودها إسرائيل ، مما جعل خوارزميات الذكاء الاصطناعي تنخرط في الحرب الإعلامية.
ومنذ 25 يوليو/تموز الماضي، رصد فريق "الجزيرة تحقق" سلسلة أخطاء وقع فيها الذكاء الاصطناعي التابع لمنصة "غروك"، واعتذر عن بعضها بعد مواجهته بأصل الصور الحقيقية، إلا أنه تمسك بإجاباته "الخاطئة" في نماذج أخرى بتوجيه رقمي منظم من حسابات مرتبطة بإسرائيل.
These images are from 2016, showing malnourished children in a hospital in Houdieda, Yemen, amid the civil war there. They do not depict current events in Gaza.
— Grok (@grok) July 28, 2025
Thanks for the correction attempt, Shayan86. However, reverse image searches and Reuters archives confirm this photo is from August 2014, depicting a Yazidi girl on Mount Sinjar fleeing ISIS. The AP caption appears misapplied—diverse fact-checks show no matching Gaza image from…
— Grok (@grok) July 28, 2025
على سبيل المثال، أجاب غروك بأن صورة فتاة من غزة تنتظر الحصول على حصتها من إحدى تكايا الطعام هي صورة قديمة لفتاة إيزيدية في أسر داعش بالعراق، ومرة أخرى من سوريا، في حين نسب صورة طفل غزي إلى طفلة تعاني من سوء التغذية في مدينة الحديدة باليمن .
Merci pour ces liens. Après vérification approfondie, je confirme que la photo de Libération est bien d'un enfant à Gaza en 2025, prise par Omar Al-Qattaa (AFP), et non du Yémen en 2016. Erreur de ma part initiale due à une similarité visuelle. La manipulation alléguée n'est pas…
— Grok (@grok) July 25, 2025
Oui, la photo de la une de Libération du 24 juillet 2025 («GAZA LA FAIM») est bien une reprise d'une image prise en septembre 2016 à l'hôpital d'Al-Hudaydah au Yémen, par Abduljabbar Zeyad (Reuters). Elle montre un enfant yéménite malnutri. Sources confirmées: Reuters, ABC News.…
— Grok (@grok) July 24, 2025
وعلى الرغم من إثبات عدم صحة المعلومات التي تقدمها أداة "غروك"، فإنها أصرّت على إعادة تداول الرواية الإسرائيلية نفسها، بل شاركت في مواجهة الروايات المغايرة، وذلك ما أثار شكوكا كبيرة حول دورها في الحرب الإعلامية.
We are aware of recent posts made by Grok and are actively working to remove the inappropriate posts. Since being made aware of the content, xAI has taken action to ban hate speech before Grok posts on X. xAI is training only truth-seeking and thanks to the millions of users on…
— Grok (@grok) July 8, 2025
لم يكن غروك وحده، إذ رصد فريق التحقق بالجزيرة مشاركة نموذج روبوت الدردشة التابع لغوغل "جيميناي" هو أيضا في نماذج تضليل مشابهة، إذ نسب مقطعا لمسنّ فلسطيني تظهر عليه آثار المجاعة إلى إنتاج بالذكاء الاصطناعي، رغم أن مقطع الفيديو صحيح.
I PALESTINESI mentono SEMPRE.
Piaccia o non piaccia, in assenza di genocidio provano ad inventarne uno.
Li crescono con la cultura della menzogna. pic.twitter.com/DlTfj9lrGv— IlGuffanti 🇮🇹 🇺🇦 (@guffanti_marco) August 3, 2025