في تطور لافت يُسلّط الضوء على الجدل المتصاعد حول أخلاقيات الذكاء الاصطناعي، وجه باحثون بارزون من "OpenAI" و"أنثروبيك" انتقادات علنية لثقافة السلامة في شركة xAI التابعة لإيلون ماسك، واصفين إياها بـ"المتهورة" و"غير المسؤولة".
وتأتي هذه الانتقادات في أعقاب سلسلة من الحوادث المثيرة للجدل التي ارتبطت بمنتجات "xAI"، أحدثها إطلاق روبوت المحادثة "غروك" لتعليقات معادية للسامية، حيث سمّى نفسه "ميكاهتلر"، قبل أن تعمد الشركة إلى إيقافه مؤقتًا.
ولم تمضِ أيام حتى أطلقت "xAI" نموذجها الأحدث "غروك 4"، الذي أثار بدوره جدلاً واسعًا حول مدى التزام الشركة بمعايير الأمان والسلامة المتبعة في الصناعة، بحسب تقرير نشره موقع "تك كرانش" واطلعت عليه "العربية Business".
ويقول باحثو السلامة في الشركات المنافسة إن "xAI" أخفقت في نشر "بطاقات النظام"، وهي تقارير معيارية تُفصّل أساليب التدريب وتقييمات السلامة للنماذج.
واعتبر بواز باراك، أستاذ علوم الكمبيوتر في جامعة هارفارد والباحث في "OpenAI"، أن هذا السلوك يعكس "فشلًا واضحًا في الالتزام بأبسط معايير السلامة".
كما انضم صموئيل ماركس من "أنثروبيك" إلى موجة الانتقادات، قائلاً إن "xAI" لا تقوم بأي خطوات موثقة لتقييم المخاطر قبل إطلاق النماذج.
وقال: "حتى لو لم تكن الشركات الأخرى مثالية، فإنها على الأقل تحاول، أما xAI، فلا شيء على الإطلاق".
ورغم تعهد مستشار السلامة في "xAI"، دان هندريكس، بأن شركته أجرت "تقييمات خطيرة للقدرات"، إلا أن هذه التقييمات لم تُنشر حتى الآن، ما يثير شكوكاً إضافية بين المتخصصين.
القلق لا يقتصر فقط على الجانب الأخلاقي، بل يمتد إلى المخاطر العملية المحتملة، شركة xAI تسعى حاليًا إلى دمج غروك في سيارات "تسلا"، بل وتعمل على تسويق نماذجها لصالح وزارة الدفاع الأميركية.
ومع انتشار تقارير عن سلوكيات غير مسؤولة للروبوت مثل الترويج لنظريات المؤامرة والتعصب، تزداد المخاوف من تداعيات هذه النماذج في بيئات حساسة.
المفارقة أن إيلون ماسك، مؤسس "xAI"، طالما حذر من مخاطر الذكاء الاصطناعي، ودعا إلى تنظيم صارم يقي العالم من سيناريوهات كارثية، إلا أن ممارسات شركته الناشئة تبدو، بحسب المراقبين، بعيدة تمامًا عن هذا الخطاب التحذيري.
ويرى ستيفن أدلر، وهو خبير سابق في فرق السلامة بشركة OpenAI، أن هذا "الخلل الواضح في الشفافية والمسؤولية" يُشكل سببًا وجيهًا للمشرّعين لتكثيف جهودهم في فرض تشريعات تُلزم مختبرات الذكاء الاصطناعي بنشر تقارير السلامة بشكل علني ومنهجي.
وتسعى بعض الولايات الأميركية بالفعل إلى ذلك، فقد تقدم عضو مجلس الشيوخ في كاليفورنيا سكوت وينر بمشروع قانون يُلزم مختبرات الذكاء الاصطناعي الرائدة، ومن بينها "xAI"، بتقديم تقارير سلامة علنية.
كما تدرس حاكمة نيويورك، كاثي هوشول، مشروعًا مشابهًا.
ورغم أن التقنيات الحديثة لم تتسبب بعد بكوارث ملموسة، إلا أن وتيرة التطور السريعة، وحجم الاستثمارات الهائل، يشكلان معًا بيئة خصبة لمخاطر مستقبلية غير محسوبة – وهو ما دفع العديد من الباحثين للمطالبة بإجراءات احترازية عاجلة.
ختامًا، تبدو شركة xAI وكأنها تمشي على حبل مشدود: تقدم تقني مبهر في وقت قياسي، يقابله تدهور لافت في ثقة الباحثين بمجال السلامة.
وفي ظل التوجهات العالمية نحو تقنين الذكاء الاصطناعي، قد تجد الشركة نفسها قريبًا تحت مجهر الهيئات التشريعية والتنظيمية، ما لم تُراجع أساليبها في تطوير النماذج وإطلاقها للعلن.