أدى تصاعد الصراع بين الولايات المتحدة وإسرائيل من جانب وإيران من جانب آخر إلى تسليط الضوء على استخدام الذكاء الاصطناعي في الحروب.
فقبل يوم واحد فقط من بدء الهجوم الأميركي الإسرائيلي على إيران في 28 فبراير، استبعدت الحكومة الأميركية أحد مورديها الرئيسيين للذكاء الاصطناعي في إطار خلاف يُبرز المخاوف الأخلاقية بشأن استخدامه.
ويثير هذا أسئلة كثيرة حول أنظمة الأسلحة المستقلة الفتاكة، وتوريد الذكاء الاصطناعي في المجال العسكري في إطار الاستخدامات الأخلاقية والقانونية للذكاء الاصطناعي في الحروب، بحسب تقرير لمجلة "نيتشر"، اطلعت عليه "العربية Business".
ويقول عالم السياسة مايكل هورويتز، من جامعة بنسلفانيا في فيلادلفيا، إن التطور التكنولوجي السريع يتجاوز وتيرة المناقشات الدولية البطيئة.
وقال كريغ جونز، أستاذ الجغرافيا السياسية في جامعة نيوكاسل بالمملكة المتحدة، والمتخصص في أبحاث الاستهداف العسكري: "يبدو أن الفشل الحالي في تنظيم استخدام الذكاء الاصطناعي في الحرب، أو إيقاف استخدامه حتى يتم التوصل إلى اتفاق بشأن الاستخدام القانوني، يشير إلى أن انتشار الذكاء الاصطناعي في الحروب وشيك".
قال هورويتز إن الجيش الأميركي يستخدم الذكاء الاصطناعي القائم على النماذج اللغوية الكبيرة للدعم اللوجستي والمكتبي، وجمع المعلومات الاستخباراتية وتحليلها، ودعم اتخاذ القرارات في ساحة المعركة.
ويسرع نظام "Maven Smart"، الذي يستخدم الذكاء الاصطناعي في تطبيقات تشمل معالجة الصور والدعم التكتيكي، من قدرات الهجوم من خلال اقتراح الأهداف وتحديد أولوياتها، على سبيل المثال.
وقد استُخدم هذا النظام في نزاعات سابقة وفي الهجمات على إيران، وفقًا لتقارير صحيفة واشنطن بوست ووسائل إعلام أخرى. ويضيف هورويتز: "التفاصيل غير معروفة للعامة".
من الممكن أن تساعد الدقة في استهداف الذكاء الاصطناعي في تقليل الخسائر في صفوف المدنيين أثناء الحرب. إلا أن النزاعات الدائرة في أوكرانيا وغزة -حيث يُستخدم الذكاء الاصطناعي للمساعدة في تحديد الأهداف وتوجيه الطائرات المسيرة، من بين أمور أخرى- شهدت ارتفاعًا كبيرًا في عدد القتلى المدنيين.
وقال جونز: "لا يوجد دليل على أن الذكاء الاصطناعي يقلل من وفيات المدنيين أو قرارات الاستهداف الخاطئة، بل قد يكون العكس هو الصحيح".
وتُعد إمكانية استخدام الذكاء الاصطناعي لتوجيه الأسلحة الفتاكة ذاتية التشغيل دون إشراف بشري مجالًا مثيرًا للجدل.
قد تُقدّر القوات المسلحة القدرة على استخدام طائرات مسيرة تعمل بالذكاء الاصطناعي، على سبيل المثال، لتحديد مواقع مقاتلي العدو والعثور عليهم وقتلهم بشكل مستقل. لكن القوانين الإنسانية الحالية تشترط أن تكون هذه الأسلحة قادرة على التمييز بين الأهداف العسكرية والمدنية.
وقال هورويتز إن الأسلحة ذاتية التشغيل بالكامل، التي تعمل بتقنية الذكاء الاصطناعي، دون إشراف بشري، غير موثوقة حاليًا ولا تتوافق مع القوانين الدولية.
تشكل الاستخدامات المستقبلية المحتملة للذكاء الاصطناعي جوهر الخلاف بين وزارة الدفاع الأميركية وشركة أنثروبيك، وهي شركة متخصصة في الذكاء الاصطناعي مقرها سان فرانسيسكو، كاليفورنيا.
ومنذ عام 2024، يدعم نظام الذكاء الاصطناعي "كلود" من "أنثروبيك"، نظام "Maven" بموجب عقد قيمته 200 مليون دولار أميركي مع وزارة الدفاع الأميركية.
وفي يناير، أصدرت الوزارة مذكرة تنص، من بين أمور أخرى، على أن عقود شراء الذكاء الاصطناعي للحكومة يجب أن تنص على إمكانية استخدام الذكاء الاصطناعي "لأي غرض قانوني"، دون قيود.
لكن "أنثروبيك" رفضت إزالة الضمانات، مصرةً على أن نظام كلود لا يمكن استخدامه للمراقبة الداخلية الجماعية أو لتوجيه الأسلحة ذاتية التشغيل بالكامل، وهي أمور لا تستطيع التقنية الحالية القيام بها بكفاءة، بحسب الشركة.
وفي 27 فبراير، أصدر الرئيس الأميركي دونالد ترامب توجيهات للحكومة بالتوقف عن استخدام تقنية أنثروبيك. وقال هورويتز: "انفجر الأمر برمته إلى خلاف نظري حول حالات استخدام مستقبلية محتملة".
وبعد التخلي عن "أنثروبيك"، وقعت الحكومة اتفاقية مع "أوبن إيه آي"، وهي شركة أخرى متخصصة في الذكاء الاصطناعي مقرها سان فرانسيسكو.. وتؤكد الشركة أن العقد يحدد كيفية عدم استخدام تقنيتها للمراقبة أو لتوجيه الأسلحة ذاتية التشغيل بالكامل.
وفي 5 مارس، أفادت التقارير أن داريو أمودي، الرئيس التنفيذي لشركة أنثروبيك، عاد إلى إجراء محادثات مع الوزارة.
أعرب الباحثون في هذا المجال عن مخاوف عميقة بشأن الاستخدامات السلبية وغير الأخلاقية للذكاء الاصطناعي. ويقوم موظفون في كل من "غوغل" و"أوبن إيه آي" حاليًا بتداول عريضة تدعو قادة الشركتين إلى عدم السماح باستخدام نماذج الذكاء الاصطناعي الخاصة بهم للمراقبة الشاملة المحلية أو لقتل الناس بشكل مستقل دون إشراف بشري.
قادت عالمة السياسة توني إرسكين من الجامعة الوطنية الأسترالية في كانبيرا مشروعًا لتوقع الاستخدامات المستقبلية للذكاء الاصطناعي في الحرب، وأسفر المشروع العام الماضي عن توصيات سياسية.
وبجانب القضايا المعروفة المتعلقة بالتحيز والغموض في استدلال النماذج اللغوية الكبيرة، يبرز تقرير المشروع خطر استبدال الحكم البشري بالذكاء الاصطناعي، ما قد يؤدي إلى تصعيد النزاعات عن طريق الخطأ.
وجاء في التقرير أن "أنظمة الأسلحة المستقلة بالكامل دون وجود الإنسان في الحلقة غير أخلاقية ويجب حظرها دوليًا"، وأضاف أن الأنظمة غير المستقلة أيضًا تحمل مخاطر وتحتاج إلى تنظيم.
تُبذل جهود حثيثة على أعلى المستويات للتوصل إلى اتفاق دولي بشأن الاستخدامات القانونية والأخلاقية للذكاء الاصطناعي في الحروب. إلا أن هذه المحاولات تتعثر بسبب قلة مشاركة الأطراف الفاعلة الرئيسية، بحسب جونز، الذي قال إن "الدول التي تمتلك برامج حرب بالذكاء الاصطناعي نشطة، بما فيها الولايات المتحدة وإسرائيل والصين، تعارض عمومًا فرض المزيد من التنظيم".
وقد تصدُر قاعدة خاصة تحظر استخدام الذكاء الاصطناعي في الأسلحة ذاتية التشغيل من خلال اتفاقية حظر أو تقييد استخدام أسلحة تقليدية معينة.
وفي اجتماعٍ لفريق خبراء الاتفاقية المعني بأنظمة الأسلحة الفتاكة ذاتية التشغيل، والذي عُقد في جنيف مؤخرًا، ناقش الخبراء تقريرًا صادرًا عن معهد ستوكهولم الدولي لأبحاث السلام حول الشراء المسؤول للذكاء الاصطناعي العسكري.
ويوصي هذا التقرير، الذي نُشر الشهر الماضي، بأن مرحلة التعاقد -وهي المرحلة التي وصلت إليها وزارة الدفاع الأميركية حاليًا مع شركات تكنولوجيا الذكاء الاصطناعي- تُعد مرحلة حاسمة لتحديد "مبادئ السلوك المسؤول" بوضوح.
المصدر:
العربيّة