كشفت شركة ميتا عن إطار عمل جديد يُعرف باسم Frontier AI Framework يحدد المعايير التي قد تجعلها تتراجع عن إطلاق أنظمة ذكاء اصطناعي متقدمة تعتبرها شديدة الخطورة.
وبينما يؤكد الرئيس التنفيذي مارك زوكربيرغ التزامه بجعل الذكاء الاصطناعي العام (AGI) متاحًا للجميع في المستقبل، فإن الوثيقة الجديدة توضح أن هناك سيناريوهات قد تدفع الشركة إلى حجب أنظمة قوية طورتها داخليًا، بحسب تقرير نشره موقع "تك كرانش" واطلعت عليه "العربية Business".
بحسب ميتا، هناك نوعان من الأنظمة التي قد يتم منعها من الإطلاق:
الأنظمة عالية الخطورة: تسهل تنفيذ الهجمات الإلكترونية أو الكيمياوية أو البيولوجية.
الأنظمة ذات المخاطر الحرجة: يمكن أن تؤدي إلى نتائج كارثية لا يمكن التخفيف منها عند استخدامها.
وتشير الوثيقة إلى أمثلة مثل الاختراق الشامل لأنظمة مؤمنة أو نشر أسلحة بيولوجية عالية التأثير.
المثير للجدل أن "ميتا" لا تعتمد على اختبار علمي موحد لتقييم المخاطر، بل تستند إلى مداخلات الباحثين والمراجعات الداخلية لاتخاذ القرار بشأن أي نظام.
في حال تصنيف نظام ما على أنه عالي الخطورة، ستعمل "ميتا" على تقييد الوصول إليه داخليًا حتى يتم تخفيض مستوى الخطر.
أما إذا كان النظام خطيرًا للغاية، فقد تتخذ الشركة تدابير أمنية مشددة لمنع تسريبه، بل إيقاف تطويره بالكامل حتى يصبح أكثر أمانًا.
يأتي هذا التوجه في وقت تواجه فيه "ميتا" انتقادات بشأن نهجها المفتوح في تطوير الذكاء الاصطناعي، خاصة بعد أن أصبحت نماذجها Llama متاحة على نطاق واسع، مما أدى إلى استخدامها من جهات غير مرغوب فيها، بما في ذلك خصوم أميركا.
الخطوة الجديدة تضع "ميتا" في مواجهة مع شركات مثل "OpenAI" التي تتبنى نهجًا أكثر تحفظًا في إتاحة تقنياتها، وكذلك مع "ديب سيك DeepSeek" الصينية، التي تواجه اتهامات بتقديم أنظمة ذكاء اصطناعي غير محمية يسهل توجيهها لإنتاج محتوى ضار.
وبحسب "ميتا"، فإن الهدف من هذه الاستراتيجية هو تحقيق توازن بين الفوائد والمخاطر، مما يسمح بتطوير الذكاء الاصطناعي بطريقة تحافظ على المكاسب التقنية مع الحد من التهديدات المحتملة.