يشهد العالم حاليا ما يسميه الخبراء العسكريون " الثورة الصناعية الثالثة في الحرب" بعد البارود والأسلحة النووية. فلم يعد الذكاء الاصطناعي مجرد أداة مساعدة لتحسين الخدمات اللوجستية، بل انتقل إلى "قلب" غرفة العمليات، حيث باتت الخوارزميات هي المسؤولة عن ترشيح من يعيش ومن يموت في ساحات القتال الحديثة.
تاريخيًا، كان تحديد هدف عسكري للاغتيال يتطلب شهورا من المراقبة البشرية وجمع المعلومات الاستخباراتية الميدانية. أما اليوم، وبحسب تقارير نشرتها صحيفة "ذا غارديان"، فقد استخدمت أنظمة مثل "لافندر" (Lavender) لمعالجة بيانات ملايين الأفراد في وقت قياسي، حيث يعتبر "لافندر" منظومة ذكاء اصطناعي كشفت عنها تقارير استقصائية، واستخدمها جيش الاحتلال الإسرائيلي لتحديد الأهداف البشرية في قطاع غزة.
وتعتمد هذه الأنظمة على "التعلم الآلي" لتقييم الأفراد بناء على مقاييس تتراوح من 1 إلى 100، حيث يتم تدريب الخوارزمية على سمات "المسلحين" المعروفين مثل التواجد في مجموعات واتساب معينة، أو تغيير السكن بشكل متكرر، ثم تقوم بمسح السكان بالكامل للعثور على "أشباه" لهؤلاء في السلوك الرقمي.
إذا كان نظام لافندر يركز على الأشخاص، فإن نظاما آخر يسمى "ذا غوسبل" (The Gospel) يركز على الأهداف النوعية والمباني. وفقا لتقرير استقصائي من وكالة رويترز ووحدة الأبحاث في صحيفة "لوموند" (Le Monde)، يتيح هذا النظام إنتاج أهداف بمعدل يفوق قدرة المحللين البشر بعشرات الأضعاف.
فقد كان المحللون يستطيعون استخراج 50 هدفا سنويا في مناطق معينة، أما النظام فهو قادر على إنتاج مئات الأهداف في يوم واحد، مما يحول الحرب إلى ما يشبه "خط إنتاج" صناعي للأهداف العسكرية.
في مجال الاغتيالات الممنهجة، تلعب الرؤية الحاسوبية دورا حاسما، فقد أوضحت تقارير لمنظمة العفو الدولية أن أنظمة مثل "ريد ولف" (Red Wolf) تستخدم لمراقبة التحركات وتحديد الهويات عبر نقاط التفتيش بشكل آلي تماما، وعند ربط هذه البيانات بطائرات بدون طيار مزودة بخوارزميات التعرف على الوجوه، يصبح الاغتيال "آليا" من لحظة الرصد حتى إطلاق المقذوف.
لكن واحدة من أكثر النقاط إثارة للجدل هي تقليل الرقابة البشرية، حيث تشير تسريبات نشرتها مجلة "سي آي أو" (CIO) وتقارير من منظمة " هيومن رايتس ووتش" إلى أن القادة العسكريين قد يمنحون "ضوءا أخضر" للخوارزمية بهامش خطأ معين.
على سبيل المثال، قد يسمح للنظام بقصف هدف إذا كانت احتمالية كونه "مسلحا" تتجاوز 90%، حتى لو كان ذلك يعني المخاطرة بحياة مدنيين متواجدين في المحيط، وهذا "القبول المسبق بالخطأ التقني" يمثل تحولا أخلاقيا خطيرا في القانون الدولي الإنساني.
ولا يقتصر الأمر على البرمجيات، بل يمتد للعتاد، فطائرات مثل "سويتش بليد" (Switchblade) الأمريكية هي نماذج لـ"الذخائر المتسكعة" التي تدمج الذكاء الاصطناعي في رأس حربي.
ووفقا لتقرير صادر عن مجلس الأمن التابع للأمم المتحدة عام 2021، قد تكون هذه الأنظمة قد هاجمت أهدافا بشكل مستقل تماما دون "أمر بشري" مباشر، مما أثار ذعرا عالميا بشأن فقدان السيطرة على قرارات القتل.
إن دور الذكاء الاصطناعي في الاغتيالات الممنهجة لا يزيد من "دقة" القصف فحسب، بل يغير مفهوم "المسؤولية الجنائية"، إذ يقول الخبراء التقنيون إنه عندما تخطئ الخوارزمية، يضيع الجاني بين المبرمج والقائد والآلة.
وبناء على التقارير التقنية، فإن العالم اليوم يتجه نحو عصر "الحرب بسرعة البرق"، حيث تتخذ الأنظمة قراراتها في أجزاء من الثانية، مما يجعل المراجعة البشرية مستحيلة عمليا.
لكن يبقى السؤال الأهم: هل سيتحول البشر في النزاعات القادمة إلى مجرد "بيانات" في قاعدة بيانات خوارزمية صماء؟
المصدر:
الجزيرة
مصدر الصورة
مصدر الصورة