انتشر استخدام وكلاء الذكاء الاصطناعي بشكل كبير في الآونة الأخيرة مع تطور تقنيات الذكاء الاصطناعي والقدرات التي يستطيع وكلاء الذكاء الاصطناعي القيام بها.
وبينما ينظر العديد من المستخدمين إلى هذه التقنية بعين الإعجاب والإبهار كونها أداة سحرية قادرة على توفير الوقت والمجهود، يرى البعض أنها أداة خطرة تحمل تهديدا كبيرا على أمن وسلامة المستخدمين الذين يعتمدون عليها.
ويعود السبب في ذلك إلى المخاوف الأمنية والعملية من استخدام وكلاء الذكاء الاصطناعي والصلاحيات التي يملكونها، فهل هناك مبرر لهذه المخاوف، أم أنها مجرد مخاوف مثل التي تظهر مع أي تقنية ذكاء اصطناعي جديدة؟
أحدث وكلاء الذكاء الاصطناعي في الفترة الماضية مجموعة من الأزمات الشخصية للمستخدمين الذين منحوهم الثقة الكاملة وأتاحوا لهم العمل بشكل مباشر في بيئة العمل التابعة لهم.
ومن بين هؤلاء، تأتي سمر يو التي تعمل كباحثة في مجال أمن وسلامة الذكاء الاصطناعي لدى شركة "ميتا" (Meta) الأمريكية، إذ منحت سمر وكيل الذكاء الاصطناعي مفتوح المصدر "أوبن كلو" (OpenClue) وصولا كاملا وغير مشروط إلى البريد الإلكتروني الخاص بها حسب تقرير نشرته مجلة "بي سي ماغازين" (PC Magazine) الأمريكية.
ولكن وكيل "أوبن كلو" الخاص بها قام بحذف جميع رسائل البريد الإلكتروني الخاصة بها، وذلك بعد أن طلبت منه فقط تفحص صندوق الوارد الخاص بها وإخبارها إن كان هناك ما يمكن حذفه، ولكن دون حذف أي شيء دون الرجوع لها.
ورغم أن يو أخذت احتياطها بشكل كامل، بدءا من تشغيل "أوبن كلو" من خلال حاسوب "ماك ميني" (Mac Mini) منفصل وتجربة الأمر في البداية على صندوق بريد إلكتروني صغير وغير هام، إلا أن النتيجة النهائية كانت حذف جميع الرسائل الخاصة بها.
وتكرر الأمر أيضا مع مهندس البرمجيات أليكسي غريغوريف الذي كان يستخدم أداة البرمجة بالذكاء الاصطناعي من شركة "آنثروبيك" (Anthropic) الأمريكية والتي يطلق عليها "كلود كود" (Claude Code)، وهي الأداة التي تسببت في ضجة كبيرة مؤخرا بقطاع الذكاء الاصطناعي بالمنطقة.
ولكن بشكل مفاجئ أثناء عمله مع الأداة، قام "كلود كود" بتدمير قاعدة البيانات الخاصة بالموقع الذي كان يعمل عليه بشكل كامل، بما فيها سنوات من البيانات المتراكمة حسب تقرير مجلة "فورتشن" (Fortune) الأمريكية.
وتثبت هذه القصص وغيرها أن أدوات الذكاء الاصطناعي سواء كانت مفتوحة المصدر مثل "أوبن كلو" أو تابعة لشركات كبرى مثل "كلود كود" قد تخطئ وتسبب في أزمات كبيرة حال حصولها على وصول أكثر من اللازم.
يشير تقرير شركة "ماكينزي" (McKinsey) الأمريكية للاستشارات الإدارية إلى أن الاعتماد على وكلاء الذكاء الاصطناعي يحمل بداخله مجموعة كبيرة من المخاوف الأمنية الأصيلة، وهي من الأسباب التي منعت بعض الشركات من التوسع في استخدام هذه التقنية.
وبينما يعد جزء كبير من هذه المخاوف متعلقا بآلية استخدام وكلاء الذكاء الاصطناعي ووصولهم إلى البيانات الخاصة بالشركة، إلا أن جزءا كبيرا منه يتعلق بمخاوف الأمن السيبراني من تقنية وكلاء الذكاء الاصطناعي.
وتنظر الشركات إلى وكلاء الذكاء الاصطناعي على أنهم نقاط احتكاك جديدة لأنظمة الشركة مع العالم الخارجي، وهي نقاط احتكاك غير قادرة على تقييم بعض الأمور مثل البشر، مما يجعلها عرضة للهجمات السيبرانية وهجمات التصيد الاحتيالية.
ويؤكد التقرير أن 80% من الشركات التي بدأت في استخدام وكلاء الذكاء الاصطناعي وجدت سلوكيات محفوفة بالمخاطر من قبل وكلاء الذكاء الاصطناعي، مثل الكشف عن البيانات بشكل خاطئ والوصول غير المصرح به إلى النظام.
ورغم هذا، يتوقع أن تصل قيمة أنظمة وكلاء الذكاء الاصطناعي بشكل كبير خلال السنوات المقبلة لأكثر من 4 تريليونات دولارات سنويا.
وتستحدث تقنية وكلاء الذكاء الاصطناعي مجموعة جديدة من المخاطر السيبرانية لأنظمة الشركات خاصة ولكل من يستخدم التقنية بشكل عام، وهي مخاطر لم تكن موجودة قبل ظهور هذه التقنية.
وفي مقدمة هذه المخاطر تأتي الثغرات المتسلسلة حسب تقرير "ماكينزي" (McKinsey)، ويشير هذا المفهوم إلى الثغرات التي تظهر بشكل مفاجئ في إحدى الخطوات التي يقوم بها وكيل الذكاء الاصطناعي، ولكنها تتسبب في موجة من الثغرات والمخاطر المتضاعفة في المراحل اللاحقة لاستخدام وكيل الذكاء الاصطناعي.
ويمتد الأمر إلى مخاطر تسريب البيانات غير المقصود، بدءا من تزوير الهوية الرقمية لوكيل الذكاء الاصطناعي واستخدامها لسرقة بيانات الشركات أو حتى تبادل البيانات والمعلومات الحساسة بين وكلاء الذكاء الاصطناعي المختلفين.
وتتفق شركة "كاسبرسكي" (Kaspersky) الأمنية مع هذه المخاوف في تقريرها المتعلقة بمخاطر وكلاء الذكاء الاصطناعي، إذ يؤكد التقرير أن وكلاء الذكاء الاصطناعي عرضة لنوعين فريدين من الهجمات، الأول وهو حقن الأوامر الذي قد يجعل الوكيل يترك مهمته الأصلية ويبدأ في تنفيذ تعليمات مختلفة حصل عليها نتيجة هجوم سيبراني.
وتشمل مخاطر وكلاء الذكاء الاصطناعي من وجهة نظر "كاسبرسكي" تسريب البيانات غير المقصود، إذ يستطيع وكيل الذكاء الاصطناعي الوصول إلى العديد من البيانات الحساسة التي يخفيها المستخدم عادة.
ورغم هذه المخاوف، ترى "كاسبرسكي" حلولا للتغلب على ثغرات وكلاء الذكاء الاصطناعي، وهي تصف هذه الحلول بكونها ستارة حديدية تتغلب على الثغرات.
وتبدأ هذه الحلول من استخدام وكلاء الذكاء الاصطناعي في بيئة معزولة تجريبية وعدم منحهم وصولا كاملا إلى البيانات الرئيسية والحقيقية، ثم استخدام اللغة الطبيعية لكتابة الأوامر الأمنية واختبارها، وأخيرا التحديث المستمر لبرمجيات وكلاء الذكاء الاصطناعي لتجنب الثغرات السيبرانية التي تظهر باستمرار.
ولكن هل تكفي هذه الحلول لمواجهة المخاوف السيبرانية من وكلاء الذكاء الاصطناعي؟
المصدر:
الجزيرة
مصدر الصورة
مصدر الصورة
مصدر الصورة