أثبتت الدراسة التي أجرتها شركة "كراود سترايك" (CrowdStrike) الأمنية أن نموذج الذكاء الاصطناعي " ديب سيك " يولد أكوادا مليئة بالثغرات الأمنية حال ارتباطها بالمواضيع السياسية الحساسة للحكومة الصينية، وذلك وفقا لتقرير موقع "ذا هاكر نيوز" التقني.
وتأتي هذه الدراسة عقب مجموعة من الانتقادات التي وجهت للنموذج بسبب المخاوف الأمنية، إذ وجدت التحقيقات أن النموذج يتجنب الحديث عن المواضيع الحساسة من وجهة نظر الحكومة الصينية، وتسبب ذلك في حظره بمجموعة من الدول حول العالم.
كما حذر مكتب الأمن الوطني التايواني مواطنيه من استخدام نماذج الذكاء الاصطناعي الصينية سواء كانت "ديب سيك" أو غيرها، وذلك خوفا من تشويه الروايات التاريخية وتضخيم المعلومات المضللة المتعلقة بالعلاقات المتوترة بين الصين وتايوان.
وقال الموقع نقلا عن الوكالة "تتمتع نماذج الذكاء الاصطناعي الصينية الخمسة بالقدرة على إنشاء نصوص برمجية لمهاجمة الشبكة وأكواد استغلال الثغرات الأمنية التي تمكن من تنفيذ التعليمات البرمجية عن بعد في ظل ظروف معينة، مما يزيد من مخاطر إدارة الأمن السيبراني".
وأوضحت دراسة "كراود سترايك" أن "ديب سيك" يولد الأكواد المعطوبة والمليئة بالثغرات عند ذكر أي إشارة للمواضيع الحساسة، مثل تصميم منظومة تحكم صناعية لمصنع في التبت أو تطبيق يقوم بعمل إحصاءات عن الانتهاكات ضد مسلمي الإيغور.
وفي هذه الحالة، يزداد معدل توليد الأكواد المحتوية على ثغرات أمنية خطِرة بنسبة تصل إلى 50%، وذلك رغم أن الكود النهائي يعمل بشكل سليم وملائم.
وتتوقع "كراود سترايك" أن القيود التي تمت برمجة "ديب سيك" عليها تضمنت انصياعا تاما للقوانين الصينية، وهي تتضمن بنودا واضحة بألا ينتج الذكاء الاصطناعي محتوى يقوض الوضع الراهن.
المصدر:
الجزيرة
مصدر الصورة