أكدت شركة غوغل أنها ستوقع على مدونة ممارسات الذكاء الاصطناعي للأغراض العامة للاتحاد الأوروبي.
ومدونة ممارسات الذكاء الاصطناعي، هي إطار عمل تطوعي يهدف إلى مساعدة مطوري الذكاء الاصطناعي على تطبيق العمليات والأنظمة بما يتوافق مع قانون الذكاء الاصطناعي للاتحاد.
ومن الجدير بالذكر أن شركة ميتا أعلنت في وقت سابق من هذا الشهر أنها لن توقع على المدونة، واصفةً تطبيق الاتحاد الأوروبي لتشريعاته المتعلقة بالذكاء الاصطناعي بأنه "تجاوز للحدود"، ومؤكدةً أن أوروبا "تسير في الطريق الخطأ فيما يتعلق بالذكاء الاصطناعي"، بحسب تقرير نشره موقع "تك كرانش" واطلعت عليه "العربية Business".
يأتي التزام "غوغل" قبل أيام من دخول قواعد مُقدمي "نماذج الذكاء الاصطناعي للأغراض العامة ذات المخاطر النظامية" حيز التنفيذ في 2 أغسطس.
ومن بين الشركات التي يُحتمل أن تتأثر بهذه القواعد أسماء رئيسية مثل "أنثروبيك" و"غوغل" و"ميتا" و "أوبن إيه آي"، بالإضافة إلى العديد من النماذج التوليدية الكبيرة الأخرى، وسيكون أمامها عامان للامتثال الكامل لقانون الذكاء الاصطناعي.
في منشور على مدونة يوم الأربعاء، أقر كينت ووكر، رئيس الشؤون العالمية في "غوغل"، بأن النسخة النهائية من مدونة الممارسات كانت أفضل مما اقترحه الاتحاد الأوروبي في البداية، لكنه لا يزال يُبدي تحفظات حول قانون الذكاء الاصطناعي والمدونة.
وقال: "لا نزال قلقين من أن قانون الذكاء الاصطناعي ومدونته يُهددان بإبطاء تطوير الذكاء الاصطناعي ونشره في أوروبا، وعلى وجه الخصوص، فإن الانحرافات عن قانون حقوق النشر في الاتحاد الأوروبي، والخطوات التي تُبطئ الموافقات، أو المتطلبات التي تكشف الأسرار التجارية، قد تُعيق تطوير النماذج الأوروبية ونشرها، مما يُضر بالقدرة التنافسية لأوروبا".
بتوقيع مدونة ممارسات الاتحاد الأوروبي، ستوافق شركات الذكاء الاصطناعي على اتباع مجموعة من الإرشادات، تشمل توفير وثائق مُحدثة حول أدوات وخدمات الذكاء الاصطناعي الخاصة بها؛ وعدم تدريب الذكاء الاصطناعي على المحتوى المُقرصن؛ والامتثال لطلبات مالكي المحتوى بعدم استخدام أعمالهم في مجموعات بياناتهم.
يُحظر قانون الذكاء الاصطناعي التاريخي للاتحاد الأوروبي، وهو لائحة قائمة على المخاطر لتطبيقات الذكاء الاصطناعي، بعض حالات الاستخدام "ذات المخاطر غير المقبولة"، مثل التلاعب السلوكي المعرفي أو التقييم الاجتماعي.
كما تُحدد القواعد مجموعة من الاستخدامات "عالية المخاطر"، بما في ذلك القياسات الحيوية والتعرف على الوجه، واستخدام الذكاء الاصطناعي في مجالات مثل التعليم والتوظيف.
كما يُلزم القانون المطورين بتسجيل أنظمة الذكاء الاصطناعي والوفاء بالتزامات إدارة المخاطر والجودة.