في حال واجهت مشكلة في مشاهدة الفيديو، إضغط على رابط المصدر للمشاهدة على الموقع الرسمي
قالت صحيفة غارديان البريطانية إن الجدل الذي أعقب قصف مدرسة شجرة طيبة الابتدائية في مدينة ميناب جنوب إيران انصرف سريعا إلى سؤال مضلل: هل اختار تطبيق الذكاء الاصطناعي "كلود" المدرسة هدفا للقصف؟
وفي تقرير مطوّل بقلم كيفن بيكر، ترى الصحيفة أن هذا السؤال، على ما أثاره من ضجيج، حجب الحقيقة الأشد خطورة وهي أن المجزرة لم تكن ثمرة تمرّد للذكاء الاصطناعي، بل نتيجة سلسلة طويلة تمتد أعواما من القرارات البشرية والعسكرية والتنظيمية، تراكم فيها الخطأ حتى انتهى إلى قتل جماعي.
تشير الصحيفة إلى أنه في صباح 28 فبراير/شباط 2026، قصفت القوات الأمريكية المدرسة مرتين على الأقل خلال الدوام الصباحي، ما أسفر عن مقتل ما بين 175 و180 شخصا، معظمهم فتيات بين السابعة و12 عاما.
ومع ذلك، لم ينصرف النقاش العام -بحسب المقال- إلى كيفية اتخاذ قرار القصف، بل إلى سؤال آخر: هل لعب "كلود" دورا في اختيار الهدف؟
وتضيف غارديان أن هذا السؤال انتشر ووصل إلى الكونغرس ووسائل الإعلام، حتى غدا النقاش يدور حول "طاعة" النموذج للأوامر، واحتمال "تمرّده"، بل وحتى "شخصيته"، في حين أن شيئا من ذلك لم يكن متصلا مباشرة بما جرى في ميناب، وفقا للتقرير.
تؤكد غارديان أن النظام الذي أديرت عبره عملية الاستهداف لم يكن "كلود" ، بل منصة عسكرية تعرف باسم "ميفين".
وتوضح أن هذا النظام، الذي طوّرته شركة بالانتير بعد انسحاب غوغل من المشروع إثر احتجاجات موظفيها عام 2018، يجمع صور الأقمار الصناعية والاستخبارات الإشارية وبيانات المجسات، ثم يدفع الهدف عبر سلسلة من المراحل تبدأ بالرصد الأولي وتنتهي بأمر الضربة.
غارديان: لم يقتل كلود أولئك الأطفال لكن الذي فعل ذلك هو فشل بشري بحت
وبحسب التقرير، فإن المبنى المستهدف في ميناب كان مصنفا في قاعدة بيانات تابعة لوكالة استخبارات الدفاع الأمريكية بوصفه منشأة عسكرية، رغم أن صور الأقمار الصناعية كانت تظهر بوضوح -منذ عام 2016 على الأقل- أنه انفصل عن مجمع تابع للحرس الثوري الإيراني وتحوّل إلى مدرسة.
ومن هنا، تقول الصحيفة إن "كلود" لم يقتل أولئك الأطفال؛ لكن الذي فعل ذلك هو فشل بشري في تحديث قاعدة البيانات، إلى جانب بناء منظومة سريعة بما يكفي لتحويل هذا الفشل إلى مجزرة.
ترى غارديان أن الانشغال بـ"كلود" لم يكن مجرد سوء فهم تقني، بل كان تعبيرا عن ميل أوسع إلى اختزال كل ما يتعلق بالذكاء الاصطناعي في النماذج اللغوية الكبيرة، حتى عندما تكون الأنظمة الفاعلة من نوع آخر.
وفي هذا السياق، تقول الصحيفة إن السؤال الحقيقي لم يكن: هل "هَلوس" نموذج لغوي؟ بل: ماذا حلّ بسلسلة القتل نفسها؟ كيف رُتّبت؟ ومن الذي جعل التردد البشري يبدو عيبا يجب التخلص منه؟
وتضيف أن هذا النوع من الجدل يبدل مركز النقاش من المسؤولية السياسية والعسكرية والقانونية إلى سؤال تقني أسهل إثارة، وأقل وقعا لمن اتخذوا القرار الحقيقي.
المؤسسة العسكرية الأمريكية سعت، على مدى عقود، إلى تقليص الزمن الفاصل بين الرصد والضربة، وأن مشروع "ميفين" جاء تتويجا لهذا المسار
تستعيد غارديان تاريخ ما يعرف عسكريا بـ"سلسلة القتل"، أي الإطار الذي ينظم خطوات الانتقال من اكتشاف الهدف إلى تدميره.
وتوضح أن المؤسسة العسكرية الأمريكية سعت، على مدى عقود، إلى تقليص الزمن الفاصل بين الرصد والضربة، وأن مشروع "ميفين" جاء تتويجا لهذا المسار، خصوصا بعد ما عُرف في وزارة الحرب الأمريكية ( البنتاغون) بـ"إستراتيجية التعويض الثالثة"، التي راهنت على أن التفوق لن يتحقق بالسلاح وحده، بل بسرعة اتخاذ القرار.
حينما يصبح القرار مسألة ثوان، لا يختفي الخطأ، بل يختفي الوقت اللازم لاكتشافه
وتقول الصحيفة إن هذا ما جعل "ميفين" جذابا للمؤسسة العسكرية، فقد وعد بنقل الاستهداف من عملية تحتاج إلى آلاف المحللين إلى عملية يمكن لفريق صغير إدارتها بوتيرة عالية.
وتستشهد في هذا السياق بتجارب عسكرية أمريكية حملت اسم "التنين القرمزي"، صممت لاختبار هذا التسريع، حتى بلغ الهدف المعلن بحلول عام 2024 إنجاز ألف قرار استهداف في ساعة واحدة.
وفي نظر غارديان، فإن هذا الرقم وحده يكشف جوهر المشكلة: حين يصبح القرار مسألة ثوان، لا يختفي الخطأ، بل يختفي الوقت اللازم لاكتشافه.
تشرح الصحيفة أن "ميفين" لا يعمل كنموذج لغوي، بل كنظام يدمج صورا وبيانات من مصادر متعددة، ويحوّل "نقطة" على الخريطة إلى "رزمة هدف" يمكن تمريرها في بضع نقرات عبر مراحل الاستهداف.
وهو، في المعنى الشكلي، لا يتخذ القرار وحده. لكن أثره الحاسم -بحسب التقرير- يكمن في دمج الأنظمة المتفرقة، وضغط الزمن، وتقليص عدد البشر، أي في جعل سلسلة القتل أسرع وأكثر انسيابا، وأقل قابلية للتوقف أو الاعتراض.
وتضيف غارديان أن النماذج اللغوية، ومنها "كلود"، لم تكن في صلب هذه العملية، بل أضيفت لاحقا لتسهيل البحث في التقارير المكتوبة وتلخيصها بلغة طبيعية. أما ما صنع الفارق فعلا فكان بنية الاستهداف نفسها، لا روبوت المحادثة الذي انشغل به النقاش العام.
في حرب فيتنام، أدى برنامج أمريكي لاعتراض الإمدادات باسم "إيغلو وايت" إلى تدمير مزعوم لعشرات آلاف الشاحنات استنادا إلى بيانات حساسات أمكن خداعها بسهولة
ولإثبات أن المشكلة ليست جديدة، تستعيد غارديان سوابق أمريكية من فيتنام والعراق وكوسوفو.
ففي حرب فيتنام، أدى برنامج أمريكي لاعتراض الإمدادات باسم "إيغلو وايت" إلى تدمير مزعوم لعشرات آلاف الشاحنات استنادا إلى بيانات حساسات أمكن خداعها بسهولة، بينما كشفت الوقائع لاحقا أن النظام كان يقيس نجاحه بمخرجاته، لا على ما حدث على أرض الواقع.
وفي كوسوفو، أدى الاعتماد على خرائط وبيانات قديمة إلى قصف السفارة الصينية بدلا من الهدف المقصود.
أما في العراق عام 2003، فقد أدار الجيش الأمريكي أحد أسرع مسارات الاستهداف آنذاك، وأنجز 50 ضربة دقيقة من حيث الإصابة، لكنها أخطأت جميعا في إصابة أهدافها الفعلية.
وترى غارديان أن القاسم المشترك بين هذه السوابق هو أن السرعة والتماثل الشكلي للإجراءات منحا المؤسسات العسكرية وهما خطيرا، يتمثل في أن كل ما يمر عبر النظام قد وقع بالفعل لمجرد مروره، لكنه يراكم وثائق وتأكيدات شكلية فوق خطأ واحد، حتى يغدو الخطأ "مُراجَعا" و"موثقا" من دون أن يكون صحيحا.
ومن هنا، تنتقل الصحيفة إلى نقد أعمق لمنطق "الأتمتة" ذاته، لتقول إن ما حدث يكشف مشكلة أعمق تتعلق بالبيروقراطية نفسها.
فالمنظمات الكبرى -كما ترى الصحيفة- تحتاج دائما إلى حكم بشري يفسر القواعد ويلاحظ الاستثناءات. لكنها، في الوقت نفسه، لا تريد الاعتراف بأن نتائجها تعتمد على هذا الحكم، لأن ذلك يهز صورتها بوصفها كيانات موضوعية ومحكومة بإجراءات واضحة.
وبذلك، يجري إخفاء الحكم البشري داخل الأرقام والنماذج والبرمجيات، حتى يبدو القرار وكأنه نتاج نظام محايد، لا اختيار بشري قابل للمساءلة.
لم تُنهِ بالانتير البيروقراطية العسكرية، بل أعادت ترميزها داخل البرمجيات
وبحسب الصحيفة، فإن "بالانتير" لم تدمر البيروقراطية كما تزعم، بل أعادت ترميزها داخل البرمجيات. وما أزالته ليس التعقيد الفارغ، بل المساحات التي كان يمكن فيها لشخص ما أن يشك، أو يتردد، أو يلاحظ أن المبنى الذي تصفه الملفات منشأة عسكرية هو في الواقع مدرسة ظاهرة على خرائط غوغل وفي أدلة الأعمال المحلية.
وتضيف أن أحدا لم يبحث، لأن نظاما ينتج ألف قرار في الساعة لا يترك وقتا لهذا النوع من التحقق.
ترى غارديان أن تحويل مجزرة ميناب إلى "مشكلة ذكاء اصطناعي" يتيح للفاعلين الحقيقيين أن يتواروا خلف السؤال الخاطئ، ويخفف وطأة المسؤولية عنهم.
وتلفت الصحيفة إلى أن الضجيج المثار حول "كلود" لم يكتف بتضييق النقاش، بل حجب عنه حقيقة سياسية وقانونية أفدح، وهي أن الكونغرس لم يجز هذه الحرب، ومع ذلك مضت القوات الأمريكية في قصف 6 آلاف هدف خلال أسبوعين، وكانت المدرسة من بينها.
المصدر:
الجزيرة
مصدر الصورة
مصدر الصورة
مصدر الصورة
مصدر الصورة