آخر الأخبار

استخدام الذكاء الاصطناعي في حرب غزة: مخاطر الخوارزميات والمساءلة القانونية

شارك

في الحروب التقليدية، كان القرار العسكري يمرّ عبر طبقات بشرية واضحة، أما اليوم، وفي ضوء ما تكشفه تجربة الحرب على غزة، يبدو أن العالم يقف أمام تحوّل نوعي غير مسبوق: انتقال مركز الثقل من الإنسان إلى الخوارزمية، ومن الميدان إلى البيانات، ومن المساءلة الواضحة إلى شبكة معقّدة من البرمجيات والمورّدين.

يرى الدكتور خالد وليد محمود، الخبير والباحث المتخصص في السياسة السيبرانية والذكاء الاصطناعي أن ما يجري في غزة لا يمكن قراءته كحالة عسكرية محلية أو استثناء ظرفي، بل بوصفه مختبراً عملياً يُعادة فيه تعريف معنى الحرب ذاتها. وأوضح في تصريحات لمصادر صحفية: 'للمرة الأولى في التاريخ المعاصر، لا يتم اختبار سلاح بعينه، بل يتم اختبار عقيدة قتالية كاملة تقوم على دمج الذكاء الاصطناعي شبه المستقل في صلب دورة القرار العسكري، وليس على هامشها'.

بحسب محمود، تكمن خطورة التجربة الجارية في أن الذكاء الاصطناعي لم يعد مجرد أداة دعم استخباري أو تقني، بل أصبح عنصراً بنيوياً يعيد تشكيل منطق القوة والنفوذ. فالتحول من 'التحقق البشري' إلى 'الترشيح الخوارزمي'، ومن الاستهداف المحدود إلى 'الإنتاج الواسع للأهداف'، ومن المراقبة المؤقتة إلى 'الضبط الدائم'، يشير إلى انتقال الحرب من ساحة الصدام المباشر إلى ساحة البيانات. ويضيف: 'عندما تُختزل حياة الإنسان في احتمالات إحصائية، ويتحول القرار القتالي إلى ناتج حسابي، فإننا لا نكون أمام تسريع للحرب فقط، بل أمام تقويض عميق لفكرة المسؤولية الأخلاقية نفسها'.

ما يجعل حالة غزة سابقة عالمية، وفق محمود، ليس فقط كثافة استخدام أنظمة الذكاء الاصطناعي، بل تطبيع هذا الاستخدام في بيئة حضرية شديدة الاكتظاظ، دون أطر قانونية دولية مُلزمة. ويؤكد: 'الخطر الحقيقي هو قابلية هذا النموذج للانتقال. ما يُختبر اليوم في غزة قد يتحول غداً إلى معيار تشغيل في نزاعات أخرى، خاصة لدى الدول التي تبحث عن تقليل الكلفة السياسية والبشرية على جنودها'.

للمرة الأولى في التاريخ المعاصر، لا يتم اختبار سلاح بعينه، بل يتم اختبار عقيدة قتالية كاملة تقوم على دمج الذكاء الاصطناعي شبه المستقل في صلب دورة القرار العسكري.

وفي زاوية تقنية، يلفت الدكتور محمود الانتباه إلى الخطر السيبراني العميق الناتج عن ربط أنظمة الاستهداف القتالي المباشر ببرمجيات وتحديثات مصدرها شركات خاصة أو دول حليفة. ويشرح قائلاً: 'نحن أمام تفتيت خطير لسلسلة الإمداد البرمجي. قرار إطلاق النار، الذي كان تقليدياً من أكثر النقاط حراسة وسيادة، أصبح مرتبطاً بشبكة تحديثات ومكونات خارج السيطرة الوطنية الكاملة'.

ويحذّر من أن هذا الواقع يفتح الباب أمام اختراقات سيبرانية قد تغيّر سلوك النظام دون علم المشغّل، مثل إدخال أكواد ملوّثة أو تغييرات غير متوقعة في تعريف 'الهدف' أو تقييم الضرر المدني. ويضيف محمود: 'في حالة وقوع خطأ قاتل، من يُحاسَب؟ الجندي؟ القائد؟ الشركة المطوّرة؟ أم الخوارزمية؟ نحن أمام تآكل تدريجي لمفهوم المساءلة القانونية'.

ويخلص الدكتور خالد وليد محمود إلى أن الخطر لا يكمن في التكنولوجيا بحد ذاتها، بل في العقيدة التي تُبنى حولها، وفي غياب نقاش دولي جاد يضع معايير مُلزمة لاستخدام الذكاء الاصطناعي عسكرياً. ويختم بالقول: 'إذا تُرك هذا المسار دون ضوابط، فإن الحروب المقبلة لن تُدار فقط بسرعة الخوارزميات، بل أيضاً بلا حارس أخلاقي حقيقي، بينما تُترك الكلفة الإنسانية خارج أي معادلة حساب'.

القدس المصدر: القدس
شارك


حمل تطبيق آخر خبر

إقرأ أيضا