آخر الأخبار

"أوبن كلو".. ثورة مفتوحة في الذكاء الاصطناعي أم كابوس الأمن السيبراني؟

شارك

قد يبدو تشغيل وكيل ذكاء اصطناعي قادر على تنفيذ مهام كاملة على جهازك خطوة نحو مستقبل أكثر أتمتة. لكن، مع صعود وكيل الذكاء الاصطناعي المفتوح "أوبن كلو" (OpenClaw)، بدأ هذا الوعد التقني يثير تساؤلات متزايدة حول المخاطر الأمنية وحدود التحكم في هذه الأنظمة.

فبينما يرى بعض المطورين في هؤلاء الوكلاء نقلة نوعية في طريقة استخدام الذكاء الاصطناعي، يحذر خبراء الأمن السيبراني من أن قدرتها على الوصول إلى التطبيقات والملفات والأنظمة المحلية قد تفتح الباب أمام تحديات تتعلق بحماية البيانات والحوكمة التقنية.

وفي المنطقة العربية، يطرح انتشار هؤلاء الوكلاء تساؤلات حول مدى جاهزية المؤسسات للتعامل مع أنظمة تعمل بدرجة عالية من الاستقلالية.

من تجربة مفتوحة إلى قلق أمني

برز "أوبن كلو" خلال الأشهر الأخيرة كأحد أكثر المشاريع إثارة للاهتمام في عالم الذكاء الاصطناعي. وبدأ المشروع، الذي طوره المبرمج النمساوي بيتر شتاينبرغر، لتمكين المطورين من إنشاء وكلاء يعملون مباشرة على أجهزة المستخدمين، لكنه سرعان ما جذب اهتمام المطورين والجمهور وشركات التكنولوجيا.

أُطلق المشروع أول مرة في نوفمبر/تشرين الثاني 2025 باسم "كلاود بوت" (Clawdbot)، قبل أن يعاد تسميته إلى "مولت بوت" (Moltbot) ثم "أوبن كلو". وزاد الاهتمام به بعد انتقال مطوره شتاينبرغر للعمل مع "أوبن إيه آي" (OpenAI) بقيادة سام ألتمان، وهو ما اعتبره مراقبون مؤشرا على مرحلة جديدة في تطوير الوكلاء الذكيين.

لكن هذه القدرة على العمل خارج بيئات السحابة التقليدية أثارت قلقا من وصول هؤلاء الوكلاء إلى الملفات والتطبيقات والبيانات المحلية، ما قد يفتح الباب أمام مخاطر الخصوصية وتسريب المعلومات الحساسة، إضافة إلى الطبيعة الاحتمالية لهذه الأنظمة التي تجعل التنبؤ الكامل بسلوكها صعبا.

مصدر الصورة النماذج العالمية تمنح قدرات متقدمة بسرعة، لكنها قد تزيد التبعية التقنية وتكاليف الاستخدام (شترستوك)

تحديات دمج وكلاء الذكاء الاصطناعي في المؤسسات

يقول جاسم حجّي، رئيس جمعية الذكاء الاصطناعي ورئيس المجموعة الدولية للذكاء الاصطناعي في البحرين، إن التحدي الأكبر عند استخدام وكلاء الذكاء الاصطناعي مثل "أوبن كلو" داخل المؤسسات يظهر عند ربطها بعدة أنظمة وخدمات رقمية في الوقت نفسه، مثل البريد الإلكتروني، والرسائل والمتصفح، والملفات، وواجهات برمجة التطبيقات (APIs).

إعلان

ويضيف أن هذا التكامل قد يفتح الباب أمام مخاطر مثل الوصول غير المقيد إلى الأنظمة الداخلية، واحتمال تنفيذ أوامر غير مقصودة نتيجة أخطاء في تفسير التعليمات أو ما يعرف بظاهرة "هلوسة النماذج". كما تظهر تحديات أخرى مرتبطة بإدارة الصلاحيات والهويات الرقمية عند ربط الوكيل بعدة خدمات أو قواعد بيانات.

ويؤكد حجّي أن هذه التحديات مهمة خاصة في المنطقة العربية، حيث لا تزال المؤسسات تطور سياسات الحوكمة الخاصة بالذكاء الاصطناعي.

ويقول في حديثه للجزيرة نت: "تحتاج الشركات اعتماد ضوابط تقنية واضحة قبل نشر هذه الأنظمة في بيئات العمل الفعلية، مثل تشغيل الوكلاء في بيئات اختبار معزولة (sandboxing)، وتطبيق مبدأ أقل صلاحية في الوصول إلى الأنظمة (least-privilege)، واستخدام أنظمة مراقبة وتسجيل للأنشطة (audit logging)"

مصدر الصورة جاسم حجّي يحذر من تحديات ربط وكلاء الذكاء الاصطناعي مثل "أوبن كلو" بعدة أنظمة وخدمات رقمية داخل المؤسسات (الجزيرة)

البيانات الحساسة ومخاطر النماذج الاحتمالية

يلفت حجّي إلى أن الطبيعة الاحتمالية لأنظمة الذكاء الاصطناعي التوليدي قد تزيد من تعقيد إدارة البيانات الحساسة داخل المؤسسات، إذ تعتمد هذه النماذج على آليات إحصائية قد تنتج استجابات غير متوقعة، ما قد يؤدي في بعض الحالات إلى إدخال بيانات حساسة أو استرجاع معلومات غير مقصودة من أنظمة داخلية.

ولتقليل المخاطر، ينصح حجّي المؤسسات بتطبيق ضوابط مثل تصنيف البيانات قبل استخدامها في الأنظمة الذكية، واستخدام تقنيات تقليل البيانات أو إخفائها (Data masking-minimization)، إضافة إلى تطبيق طبقات تحكم واضحة في الوصول إلى البيانات (RBAC).

المخاطر على الأجهزة الشخصية

لا تقتصر التحديات على المؤسسات، فمع تزايد إمكانية تشغيل وكلاء الذكاء الاصطناعي مباشرة على الأجهزة الشخصية، قد يواجه المستخدمون مخاطر تتعلق بالخصوصية والأمن الرقمي.

ويحذر حجي من أن هؤلاء الوكلاء قد يطلبون صلاحيات للوصول إلى الملفات المحلية أو البريد الإلكتروني أو الحسابات السحابية، وهو ما قد يؤدي إلى كشف معلومات حساسة إذا لم تدر الأذونات بعناية.

كما يوصي بتفعيل المصادقة متعددة العوامل ومراجعة الأذونات بشكل دوري، وتجنب ربط الوكلاء بحسابات تحتوي على بيانات حساسة ما لم يكن ذلك ضروريا.

النماذج المحلية أم العالمية؟

مع توسع استخدام وكلاء الذكاء الاصطناعي داخل المؤسسات، يبرز سؤال حول المسار الذي قد تتبعه الشركات العربية: تطوير نماذج داخلية أم الاعتماد على الحلول العالمية؟

في هذا السياق، يقول حسام الدين الأسود، الرئيس التنفيذي لشركة "ناشيونال كوانتوم" (National Quantum) وخبير تكنولوجيا المعلومات، إن القرار يعتمد على طبيعة القطاع وحساسية البيانات.

ويشير إلى أن تطوير نماذج داخلية يتيح تدريب الأنظمة على السياقات الثقافية واللهجات العربية، ويمنح المؤسسات "السيادة على البيانات" (Data Sovereignty) حيث تبقى البيانات الحساسة داخل البنية الداخلية للشركة.

ويرى أن تطوير نموذج داخلي يمنح الشركات سيطرة كاملة على بياناتها، وهو أمر مهم للقطاعات الحساسة مثل البنوك والرعاية الصحية.

إعلان

لكن هذا المسار، برأيه، يواجه تحديات مثل ندرة الكفاءات المتخصصة في تدريب النماذج اللغوية الكبيرة (LLMs)، وصعوبة بناء قواعد بيانات تدريب عربية (Datasets)، إضافة إلى الحاجة لاستثمارات كبيرة في البنية الحاسوبية، خصوصا وحدات معالجة الرسومات (GPUs)، ما يعني تكاليف رأسمالية مرتفعة (CapEx).

كما تتحمل المؤسسات مسؤولية حماية النماذج من هجمات مثل تسميم البيانات (Data Poisoning) واستخراج النماذج (Model Extraction).

في المقابل، توفر النماذج العالمية وصولا سريعا إلى قدرات تقنية متقدمة دون بناء بنية تحتية خاصة، لكنها قد تخلق التبعية التقنية (Vendor Lock-in) وارتفاع تكاليف استخدام واجهات البرمجة (APIs) مع توسع الاستخدام.

ويرى الأسود أن الخيار الأكثر واقعية هو نهج هجين يجمع بين المسارين، قائلا: "التوجه الأذكى هو استخدام النماذج العالمية للمهام العامة مثل التلخيص وصياغة الرسائل، مع تخصيص نماذج مفتوحة المصدر مثل ‘لاما’ (Llama) أو ‘فالكون’ (Falcon) عبر ‘الضبط الدقيق’ (Fine-tuning) للتعامل مع البيانات الحساسة".

مصدر الصورة حسام الدين الأسود: تطوير نماذج ذكاء اصطناعي داخلية يمنح المؤسسات سيادة أكبر على بياناتها (الجزيرة)

الإطار التنظيمي

لا تتوقف تحديات وكلاء الذكاء الاصطناعي عند الشركات، بل تمتد إلى السياسات العامة والحكومات. ويرى الأسود أن الحكومات في الشرق الأوسط مطالبة بإيجاد توازن بين دعم الابتكار وحماية المجتمع، مشيرا إلى أهمية الاستثمار في البنية التحتية الرقمية السيادية مثل مراكز البيانات والحوسبة السحابية المحلية لدعم تطوير نماذج ذكاء اصطناعي داخل المنطقة.

كما يدعو إلى رقمنة وتنظيم المحتوى العربي الموثوق وتوفير قواعد بيانات مفتوحة للمطورين، بما يساعد على تدريب نماذج أكثر ملاءمة للسياق اللغوي والثقافي في المنطقة.

ويضيف أن التشريعات المستقبلية يجب أن تعالج قضايا مثل توطين البيانات وشفافية استخدام الذكاء الاصطناعي، مع وضع أطر واضحة لما يعرف بـ "المسؤولية الخوارزمية" (Algorithmic Accountability) لتحديد الجهة المسؤولة عندما تتسبب الأنظمة الذكية في أضرار.

في نهاية المطاف، يبقى التعامل مع وكلاء الذكاء الاصطناعي مثل "أوبن كلو" اختباراً لموازنة الابتكار والأمان، يتطلب سياسات واضحة وحوكمة دقيقة لضمان استخدام مسؤول وآمن لهذه التكنولوجيا.

الجزيرة المصدر: الجزيرة
شارك

إقرأ أيضا


حمل تطبيق آخر خبر

آخر الأخبار