بدأت شركة ميتا في إضافة تدابير حماية جديدة للمراهقين إلى منتجاتها للذكاء الاصطناعي، وذلك من خلال تدريب الأنظمة على تجنب المحادثات ذات الطابع الغزلي ومناقشات إيذاء النفس أو الانتحار مع القاصرين، وتقييد وصولهم مؤقتًا إلى بعض شخصيات الذكاء الاصطناعي.
يأتي هذا بعدما كشف تقرير لرويترز في وقت سابق من أغسطس كيف سمحت "ميتا" بسلوكيات غير ملائمة لروبوتاتها للدردشة مع القاصرين، بما في ذلك السماح للروبوتات بالانخراط في "محادثات رومانسية أو حسية".
وقال المتحدث باسم "ميتا"، آندي ستون، في رسالة بريد إلكتروني لرويترز يوم الجمعة، إن الشركة تتخذ هذه الخطوات المؤقتة بينما تعمل على تطوير تدابير طويلة الأجل لضمان حصول المراهقين على تجارب ذكاء اصطناعي آمنة ومناسبة لأعمارهم.
وأضاف ستون أن تدابير الحماية بدأ تطبيقها بالفعل، وسيتم تعديلها بمرور الوقت مع تطوير الشركة لأنظمة الذكاء الاصطناعي الخاصة بها.
وكانت سياسات "ميتا" للذكاء الاصطناعي محل تدقيق مكثف وانتقادات واسعة النطاق بعد تقرير "رويترز".
وأطلق السيناتور الأميركي جوش هاولي تحقيقًا حول سياسات الذكاء الاصطناعي الخاصة بالشركة الأم لفيسبوك في وقت سابق من هذا الشهر، مطالبًا بوثائق حول القواعد التي سمحت لروبوتات الدردشة الخاصة بميتا بالتفاعل بشكل غير لائق مع القاصرين.
وأعرب كل من الديمقراطيين والجمهوريين في الكونغرس عن قلقهم إزاء القواعد الواردة في وثيقة داخلية لشركة ميتا كانت "رويترز" أول ما كتب عنها.
وأكدت "ميتا" صحة الوثيقة، لكنها قالت إنه بعد تلقي استفسارات من "رويترز" في وقت سابق من هذا الشهر، حذفت الشركة أجزاءً تنص على السماح لروبوتات الدردشة بالمغازلة والانخراط في لعب أدوار رومانية مع الأطفال.