آخر الأخبار

جدل أخلاقي حول استخدام الذكاء الاصطناعي المفترض في حرب إيران

شارك
استخدام الذكاء الاصطناعي فيالحروب يثير جدلاً واسعاً حول المسؤولية والرقابة البشرية على القرارات العسكرية.صورة من: IMAGO / YAY Images

ًتشير تقارير عدة إلى أن الحرب الجارية بين إيران من جهة والولايات المتحدة وإسرائيل من حهة أخرى تشهد استخداماً واسعاً لتقنيات الذكاء الاصطناعي في تحليل البيانات العسكرية واختيار الأهداف المحتملة للضربات الجوية. ويرى خبراء أن هذه التقنيات ساهمت في تحديد أهداف آلاف الضربات الأمريكية والإسرائيلية منذ نهاية شباط/فبراير، رغم أن تفاصيل استخدامها الدقيقة لم تؤكد رسمياً حتى الآن.

ويأتي هذا التطور في وقت يتزايد فيه اعتماد الجيوش حول العالم على تقنيات الذكاء الاصطناعي في العمليات العسكرية. وتقول لور دو روسي-روشغوند، الباحثة في المعهد الفرنسي للعلاقات الدولية (IFRI)، إن معظم القوى العسكرية الكبرى تستثمر مبالغ ضخمة في التطبيقات العسكرية لهذه التكنولوجيا.

وتوضح الباحثة أن الذكاء الاصطناعي يمكن أن يعزز تقريباً جميع جوانب العمليات العسكرية، بدءاً من الخدمات اللوجستية والاستطلاع والمراقبة، وصولاً إلى الحرب المعلوماتية والحرب الإلكترونية والأمن السيبراني.

اختصار "سلسلة القتل"

من أبرز استخدامات الذكاء الاصطناعي في الحروب الحديثة تسريع ما يعرف عسكرياً بـ"سلسلة القتل"، وهي العملية التي تبدأ برصد الهدف وتنتهي باتخاذ قرار ضربه. ويساعد الذكاء الاصطناعي في تقليص الوقت اللازم لاتخاذ هذا القرار عبر تحليل كميات ضخمة من البيانات بسرعة كبيرة.

وتستخدم القوات الأمريكية نظاماً ذكياً يعرف باسم "مافن" طورته شركة بالانتير، ويعمل على تحديد الأهداف المحتملة وترتيب أولوياتها. وذكرت صحيفة "واشنطن بوست" أن نموذج الذكاء الاصطناعي التوليدي "كلود" الذي تطوره شركة أنثروبيك دُمج مع نظام "مافن" لتعزيز قدراته في الرصد والمحاكاة. غير أن الشركتين لم تقدما تعليقاً رسمياً بشأن هذه التقارير.

كم هائل من البيانات

ويرى خبراء عسكريون أن أهمية الذكاء الاصطناعي تكمن في قدرته على معالجة كم هائل من المعلومات في وقت قصير. ويقول برتران رونديبيار، رئيس وكالة الذكاء الاصطناعي التابعة للجيش الفرنسي، إن خوارزميات الذكاء الاصطناعي تسمح بتحليل البيانات بسرعة أكبر وبصورة أشمل.

ويوضح أن هذه ا لأنظمة يمكنها معالجة مصادر متعددة للمعلومات في وقت واحد، مثل صور الأقمار الصناعية وبيانات الرادار والإشارات الكهرومغناطيسية، إضافة إلى الصور ومقاطع الفيديو التي تلتقطها الطائرات المسيّرة، بل وحتى البث الحي في بعض الحالات.

جدل أخلاقي حول القرار

لكن استخدام الذكاء الاصطناعي في الحروب يثير جدلاً واسعاً حول المسؤولية والرقابة البشرية على القرارات العسكرية. فقد برز هذا النقاش بشكل واضح خلال الحرب في غزة، حيث استخدمت القوات الإسرائيلية برنامجاً يعرف باسم "لافندر" لتحديد أهداف محتملة، ضمن هامش خطأ محدد.

وترى الباحثة دو روسي-روشغوند أن نجاح هذا البرنامج في غزة ارتبط بكونه يعمل في منطقة جغرافية محدودة نسبياً، إضافة إلى وجود نظام مراقبة واسع يوفر بيانات تفصيلية عن السكان.

لكنها تشير إلى أن من غير المرجح وجود نظام مشابه في الحرب الدائرة مع إيران.

من يتحمل المسؤولية عند الخطأ؟

يثير الاعتماد على الذكاء الاصطناعي في تحديد الأهداف تساؤلات حول المسؤولية في حال وقوع أخطاء. ويقول بيتر أسارو، رئيس اللجنة الدولية للحد من الأسلحة الروبوتية، إن السؤال الأساسي هو: من يتحمل المسؤولية إذا أخطأت الخوارزميات في تحديد الهدف؟

وأشار أسارو إلى حادثة قصف مدرسة ابتدائية للبنات في جنوب إيران، قالت السلطات الإيرانية إنها أسفرت عن مقتل نحو 150 شخصاً. ويرى أن مثل هذه الحوادث قد تكون مثالاً على أخطاء محتملة في تحديد الأهداف.

ولم تعترف الولايات المتحدة أو إسرائيل بمسؤوليتهما عن هذه الضربة، كما لم تتمكن وكالة فرانس برس من الوصول إلى الموقع للتحقق من ملابساتها. لكن المدرسة كانت تقع قرب منشأتين تابعتين للحرس الثوري الإيراني.

ويتساءل أسارو في هذا السياق: هل كان الخطأ نتيجة قرار بشري أم خلل في النظام التقني؟

بداية مرحلة جديدة في الحروب

ويرى بنجامين جنسن، الباحث في مركز الدراسات الاستراتيجية والدولية في واشنطن، أن ما نشهده اليوم يمثل فقط بداية استخدام الذكاء الاصطناعي في العمليات العسكرية.

ويضيف أن الجيوش حول العالم لم تعيد بعد التفكير بشكل جذري في كيفية تخطيط عملياتها العسكرية وتنفيذها بما يتناسب مع القدرات الجديدة لهذه التكنولوجيا.

وبحسب تقديره، قد يستغرق الأمر جيلاً كاملاً قبل أن تتضح بشكل كامل كيفية تأثير الذكاء الاصطناعي في طبيعة الحروب الحديثة.

تحرير: ع.ج.م

DW المصدر: DW
شارك

أخبار ذات صلة



حمل تطبيق آخر خبر

إقرأ أيضا