في خطوة قد تُثير جدلاً واسعاً، أعلنت شركة OpenAI عن تحديثات جديدة في "إطار عمل التأهب" الذي تستخدمه داخلياً لتقييم سلامة نماذج الذكاء الاصطناعي، مشيرة إلى احتمال تخفيف بعض ضماناتها الأمنية في حال أقدم منافسون على إطلاق أنظمة عالية الخطورة دون تطبيق إجراءات حماية مماثلة.
هذا التحديث، الذي نُشر عبر مدونة الشركة الثلاثاء، يعكس بحسب متابعين تصاعد الضغوط التنافسية في سوق الذكاء الاصطناعي التجاري، حيث تتسابق الشركات الكبرى على طرح نماذجها بأقصى سرعة ممكنة، ولو على حساب إجراءات السلامة.
"OpenAI" أوضحت في منشورها أنها قد تُعدّل متطلبات السلامة إذا ما أصدر مطور آخر نظاماً خطراً دون التزامات مماثلة، بحسب تقرير نشره موقع "تك كرانش" واطلعت عليه "العربية Business".
لكنها شددت في الوقت ذاته على أنها ستقوم بذلك فقط بعد تقييم دقيق لتغير المشهد العام للمخاطر، وبعد الإعلان العلني عن أي تعديل لضمانات السلامة، مع الحفاظ على مستوى مرتفع من الحماية.
وجاء هذا الإعلان في وقت تواجه فيه "OpenAI" انتقادات متزايدة بشأن تراجعها عن التزامات سابقة تتعلق بالشفافية ومعايير الاختبار.
فقد وقع 12 موظفاً سابقاً في الشركة مذكرة تدعم دعوى الملياردير إيلون ماسك، محذرين من أن الشركة قد تذهب بعيداً في التهاون إذا أكملت عملية إعادة الهيكلة المؤسسية التي تخطط لها.
من جانبها، نفت "OpenAI" هذه المزاعم، مشيرة إلى أنها تعزز من اعتمادها على التقييمات الآلية لتسريع تطوير منتجاتها، دون التخلي تماماً عن الاختبارات البشرية.
إلا أن تقارير صحيفة "فاينانشال تايمز" شككت في ذلك، مؤكدة أن بعض اختبارات السلامة تُجرى حالياً على نسخ قديمة من النماذج وليس على الإصدارات الحديثة، بل إن بعض الفحوصات نُفذت خلال أقل من أسبوع قبل طرح نموذج رئيسي جديد.
التغييرات الجديدة في إطار عمل "OpenAI" شملت أيضاً إعادة تصنيف النماذج بناءً على قدرتها على التسبب بضرر جسيم، لا سيما تلك التي قد تتصرف بطريقة خفية، أو تتجاوز الضمانات، أو ترفض الإيقاف، أو حتى تُظهر بوادر للتكاثر الذاتي.
وبحسب الشركة، فإن النماذج المصنفة تحت معيار القدرة العالية هي تلك التي تُضخم المسارات الحالية المؤدية للضرر، بينما القدرة الحرجة تُشير إلى نماذج قد تخلق مسارات جديدة وغير مسبوقة نحو الخطر.
وأكدت "OpenAI" أن الأنظمة التي تقترب من هذه المعايير ستخضع لضمانات صارمة تُقلّل من احتمالية حدوث ضرر جسيم، سواء أثناء تطويرها أو قبيل طرحها.
يُذكر أن هذه التحديثات هي الأولى التي تُجريها "OpenAI" على إطار العمل الخاص بالتأهب منذ عام 2023، في وقت يزداد فيه القلق الدولي بشأن السلامة الأخلاقية والتقنية للذكاء الاصطناعي المتقدم.