آخر الأخبار

الذكاء الاصطناعي: هل يجب أن نخشى "الروبوتات القاتلة"؟

شارك الخبر
مصدر الصورة

ربما أول ما سيتبادر إلى أذهان كثيرين منا عند سماح مصطلح "الروبوتات القاتلة" أفلام الخيال العلمي والديستوبيا من قبيل سلسلة The Terminator التي تصور عالما بائسا يسيطر عليه الذكاء الاصطناعي بآلاته الفتاكة.

لكن هذا المصطلح بات يستخدم لوصف ما يعرف بـ "نظم الأسلحة المستقلة الفتاكة" التي تعمل بدون تحكم أو إشراف بشري، والتي أصبحت مثار جدل كبير، ما بين مؤيد يرى أنها ستخفض النفقات العسكرية وتقلل الخسائر المادية والبشرية، ومعارض يرى أنها تنطوي على إشكاليات أخلاقية وربما تؤدي إلى مزيد من القتل والدمار.

وتستخدم الجيوش تقنيات الذكاء الاصطناعي في عدة مجالات، منها تحليل البيانات لاستخراج معلومات استخبارية، والحروب السيبرانية - على سبيل المثال، استخدام تقنية التزييف العميق وروبوتات الذكاء الاصطناعي لنشر دعايات أو معلومات مضللة فضلا عن اختراق مواقع الإنترنت - وتحديد الأهداف، وتعقب الدبابات والصواريخ والمقاتلات. كما تستخدم في نظم الأسلحة المستقلة الفتاكة، والتي ربما تعد الأكثر إثارة للجدل من بين التطبيقات العسكرية لهذه التقنيات.

فما هي هذه النظم؟

يعكف عدد من الدول على تطوير أسلحة تحتوي على وظائف مستقلة باستخدام أحدث التقنيات، ولكن هذا النوع من الأسلحة مستخدم منذ عقود. النوع الأكثر شيوعا من هذه الأسلحة، وفق مكتب الأمم المتحدة لشؤون نزع الأسلحة، هو نظم الأسلحة الدفاعية، بما فيها الألغام المضادة للمَركبات والألغام المضادة للأفراد، التي بمجرد أن يتم تفعيلها، تعمل بشكل مستقل.

أما الأنظمة الأحدث فتوظف تقنيات تزداد تطورا وتعقيدا طوال الوقت، وتشمل أنظمة صواريخ أو أنظمة دفاع تستطيع بشكل مستقل رصد الأهداف والاشتباك معها. من الأمثلة الأخرى الطائرات المسيّرة "الانتحارية" أو "الكاميكازي" أو "المتفجرة" التي تحتوي على ذخيرة.

مصدر الصورة

ما دور الذكاء الاصطناعي في تلك النظم؟

يُستخدم الذكاء الاصطناعي في تحديد الأهداف وتعقبها ومهاجمتها بدون إشراف بشري مباشر، ويحتوي بعضها على تقنيات استشعار ومعالجة تشمل تقنية تمييز الصور والوجوه ومعالجة إشارات الردار.

في الوقت الحالي، تستخدم بعض الجيوش أسلحة شبه مستقلة تسمح بتدخل عناصر بشرية إذا لزم الأمر. لكن ابتكار أسلحة فتاكة مستقلة تماما قادرة على العمل في المعارك بدون أي تدخل بشري يخضع حالياً للتجارب والتطوير في بلدان من بينها الولايات المتحدة والصين وروسيا.

اللوغاريتمات وتعلم الآلة

اللوغاريتمات أو الخوارزميات هي أساس الذكاء الاصطناعي، وهي عبارة عن مجموعة من الإرشادات أو القواعد التي يجب أن يستخدمها الكمبيوتر أو الآلة لإنجاز مهمة ما.

و"تعلم الآلة" هو أحد أنظمة الذكاء الاصطناعي الذي يبتكر إرشادات خاصة به سواء من خلال التدريب أو التفاعل مع البيئة بأسلوب التجربة والخطأ، بدلا من اتباع مجموعة من التعليمات المبرمجة مسبقا.

بعض نظم تعلم الآلة تواصل التعلم بينما نستخدمها في تنفيذ مهمة ما، وطبيعة هذه التقنية تعني أن نظم الذكاء الاصطناعي لا تستجيب بالطريقة ذاتها إذا أدخلت البيانات نفسها عدة مرات، ولذا يراها بعضهم نظما لا يمكن التنبؤ بتصرفاتها. كما أنها عادة ما تكون مثل "الصندوق الأسود": في كثير من الأحيان، من المستحيل أن يفسر المستخدم سبب أو كيفية توصل النظام إلى مخرجات أو نتائج ما بناء على ما أعطي من مدخلات، أي هناك غياب للشفافية.

هذه التقنية مستخدمة بالفعل في نظم الأسلحة المزودة بالذكاء الاصطناعي.

"مضاعفة القوة"

يقول المؤيدون إن استخدام الذكاء الاصطناعي يؤدي إلى تحسين عمليات الاستكشاف والتعرف على الأهداف بشكل كبير، ومن ثم تقليل حجم الدمار الذي تتعرض له البنية التحتية المدنية.

يستخدم الخبراء العسكريون الذين يؤيديون استخدام الذكاء الاصطناعي عبارة "force multiplier" ("مضاعِف للقوة")عند وصفه، لأنه سيمكن الجيوش من تحقيق النتائج التي تسعى إليها بعدد أقل من الجند أو المعدات، وهو ما قد يعني تكلفة أقل، ويتغلب على مشكلة ضعف الإقبال على التجنيد التي يواجهها بعض الدول، ومنها الولايات المتحدة.

كما أن نظم الأسلحة المستقلة، برأي المؤيدين، ستؤدي إلى توسيع ساحة المعركة أمام القوات وتسمح بالوصول إلى مناطق من الصعب الوصول إليها بالطرق التقليدية، وتقلل عدد الخسائر البشرية لأنها ستمكن القادة من تفادي إرسال الجنود والمقاتلين في مهام خطرة.

مصدر الصورة

ماذا يقول المعارضون؟

يفند المعارضون فكرة أنها تبعد الجنود عن مرمى الخطر، حيث يرون أن النتيجة ستكون سهولة اندلاع الحروب - فالكلفة البشرية من أهم أسباب عدم خوض القادة للحروب لما تتسبب فيه من سخط شعبي، وتخفيض الخسائر البشرية سيؤدي إلى سهولة اتخاذ قرار الحرب، ومن ثم المزيد من القتل والدمار في المجمل.

في تصريحات لـ بي بي سي عربي، يقول العالم البريطاني البروفيسور ستيوارت راسل أستاذ علوم الكمبيوتر بجامعة كاليفورنيا في بيركلي والمعروف بإسهاماته المتميزة في أبحاث الذكاء الاصطناعي إن ما يقال بشأن إبعاد الجنود عن مرمى الخطر "هو ما أسميه مغالطة الملكية الوحيدة، لأنك تتخيل أن لديك أنت وحدك أسلحة تعمل بالذكاء الاصطناعي والطرف الآخر ليس لديه هذه الأسلحة.. امتلاك أسلحة يتم التحكم فيها وتوجيهها عن بعد من قبل طرفي الحرب الأوكرانية أدى إلى معدلات خسائر بشرية مرتفعة للغاية، إذ إن القنابل الصغيرة التي تلقيها الطائرات المسيّرة تستطيع الوصول إلى أهداف موجودة حتى في الخنادق".

ويضيف أن "الهدف الرئيسي للأسلحة المستقلة الفتاكة، كما عكف مجتمع الذكاء الاصطناعي على القول مرارا وعلى مدى عقد من الزمان، هو أن تصبح (وربما يكون ذلك قد بدأ بالفعل) أسلحة دمار شامل رخيصة يمكن إنتاجها بقدرات مختلفة ونشرها بسهولة. ذلك لأنها مستقلة وليست بحاجة إلى إشراف بشري، ما يعني أن شخصا واحدا يستطيع أن يضغط على زر فيطلق مليون سلاح ليقتل مليون شخص".

ما يشير إليه راسل هو خطاب أعرب فيه كثير من الشخصيات البارزة في مجال العلوم والتكنولوجيا والتجارة والسياسة عن خوفهم من أن تؤدي تلك الأسلحة إلى سباق تسلح بالذكاء الاصطناعي يفضي إلى زعزعة الأمن والاستقرار. وجاء في الخطاب، الذي يعود إلى عام 2015 وكان من بين الموقعين عليه عالم الفيزياء البارز الراحل ستيفين هوكينغز وإيلون ماسك وستيف وزنياك المؤسس المشارك لشركة أبل، أن تلك الأسلحة قد تؤدي إلى تآكل الحواجز التي تقف أمام تنفيذ "مهام من قبيل عمليات الاغتيال وزعزعة استقرار البلدان وإخضاع الشعوب والقتل الانتقائي لجماعة عرقية بعينها".

ويرى راسل أن "تطوير نظم أسلحة مستقلة فتاكة يحل فيها الذكاء الاصطناعي محل البشر أمر حتمي"، وأن الحرب في أوكرانيا على سبيل المثال تسير في هذا الاتجاه بشكل متزايد. ويحذر من "إمكانية أن نصل إلى مرحلة تكون فيها مثل هذه الأسلحة متاحة لأي جنرال أو ديكتاتور أو إرهابي".

ويرى المعارضون كذلك أن اتخاذ القرار من خلال لوغاريتمات في تلك الأسلحة ربما يؤدي إلى التصعيد السريع وعدم القدرة بالتنبؤ بالنتائج (خاصية "الصندوق الأسود").

مصدر الصورة

إشكاليات أخلاقية

تطرح الأسلحة الفتاكة التي تعمل بالذكاء الاصطناعي تساؤلات تتعلق بالمحاسبة والمسؤولية. إذا كان قرار استخدام القوة المميتة يتخذه روبوت أو لوغاريتمات بدون تحكم أو إشراف مباشر من قبل عناصر بشرية، فمن سيتحمل المسؤولية أو يحَاسب إذا ما ارتُكبت انتهاكات ضد مدنيين على سبيل المثال؟

ويرى المعارضون أن اللوغاريتمات لا تستطيع فهم قيمة حياة الإنسان، ومن ثم لا ينبغي إعطاؤها القدرة على تقرير من ينبغي أن يعيش ومن ينبغي أن يموت. وأثناء مفاوضات أجريت حول الأسلحة المستقلة في جنييف عام 2019، قال الأمين العام للأمم المتحدة أنطونيو غوتيريش إن تطوير "آلات تتمتع بحرية التصرف والقدرة على إزهاق الأرواح بدون تدخل بشري أمر غير مقبول من الناحية السياسية وبغيض من الناحية الأخلاقية وينبغي حظره بموجب القانون الدولي"، وهو رأي تشاركه فيه العديد من المنظمات الحقوقية ومنظمات المجتمع الدولي في العالم، والتي شكلت تحالفا أطلق عليه اسم حملة "أوقفوا الروبوتات القاتلة".

مطالبات بوضع أطر تشريعية

في تقرير صدر في أغسطس /آب الماضي، طالب الأمين العام للأمم المتحدة غوتيريش بالتوصل بحلول عام 2026 إلى اتفاقية ملزمة بشأن "حظر نظم الأسلحة المستقلة الفتاكة التي تعمل بدون رقابة أو إشراف بشري والتي لا يمكن أن تُستخدم بشكل يضمن امتثالها للقانون الدولي".

وقد عُقدت أول قمة دولية لمناقشة الاستخدام المسؤول للذكاء الاصطناعي في أمستردام بهولندا عام 2023، ولكنها لم تتمخض عن أي اتفاق، واستضافت العاصمة الكورية الجنوبية سيول القمة الثانية في سبتمبر/أيلول الماضي، والتي انتهت بتبني 61 دولة لوثيقة بشأن الاستخدام الم ....

لقراءة المقال كاملا إضغط هنا للذهاب إلى الموقع الرسمي
بي بي سي المصدر: بي بي سي
شارك الخبر

أخبار ذات صلة


الأكثر تداولا سوريا اسرائيل بشار الأسد

إقرأ أيضا