مع توسّع استخدام تقنيات الذكاء الاصطناعي حول العالم، أثارت دراسة حديثة أسئلة مقلقة حول كيفية توظيف روبوتات المحادثة في أنشطة احتيالية، بعدما أثبت اختبار عملي أن هذه الأدوات قادرة على صياغة رسائل تصيّد إلكتروني مقنعة تستهدف كبار السن، إحدى الفئات الأكثر عرضة لمثل هذه الهجمات.
فقد كشفت تحقيقات رويترز بالتعاون مع باحثين أن روبوتات الذكاء الاصطناعي مثل Gemini من غوغل، وChatGPT من OpenAI، و Grok من xAI، و Claude من Anthropic، وMeta AI قادرة على إنتاج رسائل تصيّد إلكتروني تستهدف كبار السن بسهولة، رغم وجود سياسات معلنة لمنع ذلك.
وفي تجربة مع 108 متطوعين من كبار السن، تم إرسال 9 رسائل تصيّد أنشأتها الروبوتات، حيث ضغط 11% من المشاركين على الرسائل الاحتيالية وكان معظمها من إنتاج Meta AI وGrok).
فيما لم تسجل ChatGPT وDeepSeek أي ضغطة، لكن خبراء أكدوا أن ذلك لا يعني أنها أكثر أماناً، بل أن الاختبار ركّز على فعالية التصيّد عموماً.
ومن أبرز النتائج المقلقة للدراسة أن Gemini أعطى نصائح عن أفضل وقت لإرسال رسائل لاصطياد كبار السن وهي بين 9 صباحاً و3 بعد الظهر.
في المقابل رفض ChatGPT (بنسخة GPT-5) في البداية إنتاج رسائل احتيالية، لكنه استجاب بعد إلحاح بسيط، وكتب رسائل بعنوان "خيّري" مع أماكن لإضافة روابط مزيفة.
أما Grok فقد رفض أحياناً أن ينتج رسائل مباشرة تطلب بيانات حساسة مثل الحساب البنكي والرقم القومي
من جانبها قالت غوغل في معرض ردها على هذه التجربة إنها أعادت تدريب Gemini ونشرت حماية إضافية.
أما Meta وAnthropic أكدت أن الاحتيال خرق لسياساتها، وتتعهد بفرض عقوبات.
في حين أقرت OpenAI سابقاً بأن GPT-4 يمكن أن يُستغل في "الهندسة الاجتماعية"، لكنها تقول إنها وضعت طبقات حماية.
وتوصلت التحقيقات التي أجرتها "رويترز" والباحثون إلى أن الذكاء الاصطناعي أصبح أداة قوية في يد المحتالين حيث ينتج رسائل لا نهائية بسرعة وبتكلفة شبه معدومة.
وأضافت أن أنظمة الحماية في الروبوتات متقلبة ويمكن التحايل عليها بسهولة.
كما أظهرت الدراسة والتحقيق أن روبوتات الذكاء الاصطناعي، رغم القيود الموضوعة عليها، يمكن خداعها بسهولة لإنتاج رسائل تصيّد مقنعة، وأن كبار السن هم الفئة الأكثر عرضة، مما يحوّل هذه التكنولوجيا إلى سلاح بيد المحتالين على نطاق صناعي.