كشفت تقارير أميركية عن استخدام مثير للجدل لنموذج ذكاء اصطناعي من "ميتا" داخل الحكومة الفيدرالية الأميركية، في إطار ما وصف بأنها خطة لتقليص عدد الموظفين وتحليل بياناتهم دون علمهم الكامل.
وبحسب ما نشره موقع "Wired"، استخدم مسؤولون مرتبطون ببرنامج "DOGE" – التابع لإيلون ماسك – نموذج "LLaMA 2" من "ميتا" في عملية مراجعة جماعية لردود الموظفين الفيدراليين على رسالة إلكترونية مثيرة للجدل، حملت عنوان "مفترق الطرق"، أُرسلت في يناير الماضي، وخيّرت الموظفين بين الالتزام بسياسة العودة إلى العمل من المكاتب أو الاستقالة.
تشير الوثائق إلى أن النموذج الذكي استُخدم لفرز الردود وتحديد عدد الراغبين في الاستقالة، ما أثار مخاوف كبيرة حول الخصوصية واستخدام الذكاء الاصطناعي في اتخاذ قرارات حساسة.
ويبدو أن استخدام LLaMA 2 يعود إلى كونه متاحًا كمصدر مفتوح، ما سهّل على جهات حكومية استخدامه دون موافقة صريحة من شركة ميتا.
وبالرغم من تقدم "ميتا" في إصدارات LLaMA 3 و4، فإن الاعتماد لا يزال قائمًا على الإصدار القديم.
تزامن ذلك مع إعلان "ميتا" إتاحتها نماذجها لوكالات الدفاع والأمن القومي الأميركية، في خطوة أثارت جدلًا واسعًا بعدما استُخدم النموذج نفسه سابقًا من قبل باحثين صينيين لأغراض عسكرية.
وفي رسالة رسمية موجهة إلى البيت الأبيض، طالب أكثر من 40 مشرعًا بالتحقيق في استخدام وزارة الدفاع الأميركية لهذه النماذج، محذرين من "خروقات محتملة للخصوصية، واستخدامات قد تقوّض الثقة العامة".
ورغم أن برنامج "DOGE" لم يستخدم نموذج "غروك" التابع لماسك في هذه المرحلة – بسبب كونه خاصًا آنذاك – إلا أن تقارير أكدت أن "مايكروسوفت" بدأت هذا الأسبوع في استضافة نماذج "غروك 3" على منصة Azure، مما يمهد الطريق لاستخدامها الحكومي مستقبلاً.
المشرعون حذروا من تضارب مصالح ماسك، خاصةً مع احتمالية دمج نماذجه الخاصة بأنظمة حكومية والوصول إلى بيانات لا يمتلكها منافسوه.
وطالبوا بفرض رقابة صارمة وضمانات أمنية، مؤكدين أن "الذكاء الاصطناعي ليس جاهزًا بعد لاتخاذ قرارات عالية المخاطر".