آخر الأخبار

الوجه المظلم للذكاء الاصطناعي.. هل يدخل في خدمة التطرف؟

شارك
الذكاء الاصطناعي.. سلاح محتمل للإرهاب والتطرف

في وقت يتسارع فيه العالم للاستفادة من القدرات المتنامية للذكاء الاصطناعي في مجالات الاقتصاد والبحث العلمي وتحسين الإنتاجية، تبرز في المقابل مخاوف أمنية متصاعدة من انزلاق هذه التقنية إلى مسارات خطرة، قد تجعل منها أداة مساعدة للجماعات المتطرفة والتنظيمات الإرهابية.

هذا التحذير لم يعد افتراضاً نظرياً، بل بات جزءاً من نقاش جدي داخل الأوساط الأمنية والاستخباراتية، في ظل مؤشرات على محاولات حثيثة لاختبار إمكانات الذكاء الاصطناعي وتطويعه لأغراض غير مشروعة.

الذكاء الاصطناعي بين التنمية والإرهاب

أكد الخبير في الذكاء الاصطناعي ماركو مسعد، خلال حديثه إلى غرفة الأخبار على سكاي نيوز عربية، أن الذكاء الاصطناعي يمثل أداة مزدوجة، إذ يمكن أن يسهم بشكل إيجابي في زيادة الإنتاجية ودعم البحث العلمي وتسريع الاقتصاد الدولي، وفي الوقت ذاته يتحوّل إلى أداة تساعد الجماعات الإرهابية على تحقيق أهدافها بسرعة أكبر.

وأشار مسعد إلى أن هذه الجماعات لم تعد تعتمد فقط على العنصر البشري في عمليات التجنيد والتأثير، بل صارت تستخدم الذكاء الاصطناعي في تسريع أعمال العنف، ومن ذلك التجنيد الرقمي للشباب، والتأثير على الرأي العام عبر مواقع التواصل الاجتماعي، ونشر الأخبار والصور المزيفة، بما يشكل مضاعفًا للقوة لدى هذه المجموعات.

تحديات الاستخبارات.. حدود السيطرة على الذكاء الاصطناعي

وأوضح مسعد أن أجهزة المخابرات الدولية والحكومات تواجه صعوبة كبيرة في ضبط الاستخدام السلبي للذكاء الاصطناعي.

فكما أن الجامعات الإرهابية لا يمكن السيطرة عليها بنسبة 100% عند زرع العبوات الناسفة، كذلك يصعب التنبؤ باستجابات نماذج الذكاء الاصطناعي عند طرح أسئلة دقيقة وحساسة.

وأشار إلى مثال عملي، حيث يمتنع نموذج الذكاء الاصطناعي عن الإجابة المباشرة على أسئلة حول صناعة القنابل النووية أو القنابل اليدوية، لكنه قد يستجيب عند إعادة صياغة السؤال بطريقة معينة، ما يتيح إمكانية حصول الجماعات الإرهابية على المعلومات المطلوبة.

كما لفت إلى أن هذه النماذج يمكن استخدامها لمعرفة نقاط ضعف البنية التحتية للمؤسسات وكيفية تجييش الشعوب وتقليب الرأي العام.

الذكاء الاصطناعي لمكافحة نفسه.. الحل الجزئي

طرح مسعد استراتيجية للحد من الأخطار، مبنية على استخدام الذكاء الاصطناعي ضد الذكاء الاصطناعي نفسه، وذلك عبر نماذج اصطناعية تراقب الاستخدامات وتحدّد الكلمات المفتاحية وتصدر إنذارات مبكرة.

وأوضح أن هذه الآليات يمكن أن تطورها الشركات المصنِّعة للنماذج، كونها الأكثر قدرة على مراقبة هذه الظاهرة.

غير أن الخبير شدد على أن هذه الحلول تظل نسبية وليست مطلقة، مؤكدا أن التصدي الكامل لتوظيف الذكاء الاصطناعي في أعمال إرهابية يظل صعب التحقيق في ظل محدودية قدرات الأجهزة الأمنية وعدم وضوح الاستجابات الفعلية للنماذج.

مسؤولية مشتركة.. المجتمع والحكومات والشركات

أشار مسعد إلى أن مواجهة آثار الذكاء الاصطناعي السلبي تتطلب مسؤولية مشتركة تشمل جميع الأطراف، من شركات التكنولوجيا والمطورين إلى الحكومات ومواقع التواصل الاجتماعي والمجتمع المدني.

وأضاف أن غياب إطار قانوني تنفيذي يفاقم الخطر، إذ تحاول الحكومات فقط تتبع الظاهرة دون معرفة مدى عمقها أو فاعليتها.

وأوضح أن التركيز على الجانب الربحي من قبل الشركات المطوّرة للنماذج يأتي على حساب العمل الأمني، وهو ما يفسر وقوع حوادث فردية، مثل تزويد المستخدمين بإرشادات حول إيذاء النفس، أو تجنيد الأشخاص عبر الإنترنت، أو نشر الأخبار المزيفة لتجييش الرأي العام، كما يحدث حاليًا مع الجماعات الإرهابية.

أولوية الربح أم ضبط الأثر السلبي؟

أكد مسعد أن تركيز الشركات على تطوير النماذج بسرعة لتحقيق الأرباح يتناقض مع الحاجة لتقليل الآثار السلبية للذكاء الاصطناعي.

فبينما يسعى مطورو النماذج إلى تسريع أداء الأعمال اليومية، لا تولي هذه الشركات اهتمامًا كافيًا لتعزيز استخدامات أمنية أو حماية المجتمعات من سوء الاستخدام.

وأشار إلى أن هذا الخلل يؤدي إلى وقوع حوادث متكررة، من بينها تجنيد الشباب، ونشر أخبار مضللة، وتشجيع أعمال العنف، وهو ما يعكس فجوة كبيرة بين التطور التقني والقدرة التنظيمية على ضبط التأثيرات السلبية.

يضع ماركو مسعد الذكاء الاصطناعي في قلب المعادلة الأمنية المعاصرة، حيث تتقدم التكنولوجيا بوتيرة أسرع من التشريعات، وتسبق التطبيقات السلبية أي جاهزية مؤسسية لاحتوائها.

ووفق هذا التصور، فإن المعركة ليست ضد الذكاء الاصطناعي بحد ذاته، بل ضد سوء استخدامه في ظل فراغ تشريعي وضعف الرقابة، ما يجعل مسؤولية الحد من مخاطره مشتركة، ومفتوحة أمام تحديات تقنية وأمنية معقدة.

سكاي نيوز المصدر: سكاي نيوز
شارك


حمل تطبيق آخر خبر

إقرأ أيضا