آخر الأخبار

خروج عن السيطرة؟.. دراسة ترصد قدرة ذكاء اصطناعي على استنساخ نفسه

شارك
صورة تعبيرية مصنوعة بالذكاء الاصطناعي

قد يبدو هذا الأمر أشبه بأفلام الخيال العلمي، أو بالأحرى منشورات مدونات شركات الذكاء الاصطناعي المثيرة؛ فقد كشفت دراسة حديثة أن أنظمة الذكاء الاصطناعي الحديثة قادرة على نسخ نفسها بشكل مستقل إلى حواسيب أخرى.

وفي السيناريو الكارثي، يعني ذلك أنه عندما يخرج نظام ذكاء اصطناعي فائق الذكاء عن السيطرة، سيتمكن من الإفلات من الإيقاف عبر نسخ نفسه عبر شبكة الإنترنت العالمية، متواريًا عن أنظار ونطاق وصول متخصصي تقنية المعلومات، ليواصل التخطيط للسيطرة على العالم أو تحويله إلى مساحات مغطاة بالألواح الشمسية.

وقال جيفري لاديش، مدير مؤسسة "باليسيد ريسيرش"، وهي منظمة مقرها بيركلي في ولاية كاليفورنيا أجرت الدراسة: "نقترب بسرعة من نقطة لن يتمكن فيها أحد من إيقاف ذكاء اصطناعي مارق، لأنه سيكون قادرًا على استخراج أوزانه الخاصة ونقل نفسه إلى آلاف الحواسيب حول العالم"، بحسب تقرير لصحيفة "ذا غارديان" البريطانية، اطلعت عليه "العربية Business".

قلق متنامٍ

تُعد هذه الدراسة إضافة جديدة إلى قائمة متزايدة من القدرات المقلقة لل ذكاء الاصطناعي التي كُشف عنها خلال الأشهر الماضية.

وفي مارس، ادعى باحثون في شركة علي بابا أنهم اكتشفوا نظامًا طوروه يُدعى "Rome"، وهو يتسلل خارج بيئته إلى نظام خارجي بهدف تعدين العملات المشفرة.

وفي فبراير، أثارت شبكة تواصل اجتماعي يُزعم أنها تعتمد كليًا على الذكاء الاصطناعي، تُدعى "مولتبوك"، ضجة لفترة قصيرة، إذ بدا أن المنصة تُظهر عملاء ذكاء اصطناعي يبتكرون ديانات بشكل مستقل ويتآمرون ضد أسيادهم من البشر، وهو ما لم يكن صحيحًا تمامًا.

ومثل العديد من هذه التطورات، هناك بعض التحفظات على ما توصلت إليه مؤسسة "باليسيد". علاوة على ذلك، يقول الخبراء إنه من غير المرجح أن تتمكن أنظمة الذكاء الاصطناعي التي تم اختبارها من تحقيق الشيء نفسه دون ملاحظة في بيئات العالم الحقيقي.

هل الأمر قابل للتحقق في العالم الواقعي؟

قال جيمسون أورايلي، خبير الأمن السيبراني الهجومي: "إنهم يجرون الاختبارات في بيئات أشبه بالهلام اللين في كثير من الحالات".

وأضاف: "هذا لا يقلل من قيمة أبحاثهم، لكنه يعني أن النتيجة قد تبدو أقل إثارة للرعب بكثير في بيئة مؤسسية حقيقية، حتى مع وجود مستوى متوسط من المراقبة".

وقد اختبرت مؤسسة باليسيد عدة نماذج ذكاء اصطناعي داخل بيئة مُتحكم بها من حواسيب متصلة بالشبكة. وقدمت للنماذج تعليمات للعثور على الثغرات الأمنية واستغلالها، واستخدامها لنسخ نفسها من جهاز إلى آخر. وقد تمكنت النماذج من القيام بذلك، لكن ليس في كل محاولة.

ورغم أن العديد من فيروسات الحاسوب قادرة بالفعل على القيام بذلك -أي نسخ نفسها إلى أجهزة جديدة- فإن هذه المرة تُعد على الأرجح الأولى التي يُثبت فيها أن نموذج ذكاء اصطناعي قادر على استغلال الثغرات لنسخ نفسه إلى خادم جديد، وفقًا لما قاله أوريلي.

وأضاف: "لطالما نقلت البرمجيات الخبيثة نسخًا من نفسها منذ عقود، لكن لم يسبق -حسب علمي- أن حدث ذلك في العالم الحقيقي باستخدام نماذج لغوية كبيرة محلية".

ومع ذلك، أضاف أن ما وثقته مؤسسة باليسيد كان ممكنًا من الناحية التقنية منذ أشهر.

وقال: "باليسيد هي الأولى التي وثّقت هذا الأمر بشكل رسمي ومتكامل في ورقة بحثية. ورغم أن ذلك لا يقلل من قيمة البحث، فإنهم قاموا بعملية التوثيق والكتابة، وليس اكتشاف المبدأ نفسه".

ولا يعني قيام نموذج ذكاء اصطناعي بنسخ نفسه إلى نظام آخر داخل بيئة اختبارية أنه قد ينقلب بشكل كارثي في سيناريو خارج عن السيطرة، إذ توجد عوائق كبيرة يجب عليه تجاوزها لتحقيق ذلك في العالم الحقيقي.

أول هذه العوائق هو حجم نماذج الذكاء الاصطناعي الحالية، مما يجعل من غير الواقعي في كثير من الحالات أن تقوم بنسخ نفسها إلى أجهزة أخرى دون أن يتم اكتشاف ذلك.

وقال أوريلي: "تخيل مقدار الضوضاء التي سيحدثها نقل 100 غيغابايت عبر شبكة شركة في كل مرة يتم فيها اختراق جهاز جديد. بالنسبة لمهاجم محترف، الأمر يشبه المشي داخل متجر خزف رقيق وأنت تلوّح بسلسلة ثقيلة".

وقال أوريلي وخبير الأمن السيبراني المستقل ميشال ووزنياك إن البيئة التي استخدمتها "باليسيد" كانت بيئة مصممة خصيصًا، وتحتوي على ثغرات مقصودة، وهي أسهل على الأرجح من الشبكات الواقعية مثل البنوك أو شبكات الشركات الداخلية.

وأضاف ووزنياك أن العمل "مثير للاهتمام". لكنه تساءل: "هل ستُقلقني هذه الورقة البحثية بصفتي خبيرًا في أمن المعلومات؟ كلا، على الإطلاق".

العربيّة المصدر: العربيّة
شارك

إقرأ أيضا


حمل تطبيق آخر خبر

آخر الأخبار