آخر الأخبار

تحذير من داخل القطاع.. قادة الذكاء الاصطناعي لا يجب أن يحددوا مستقبل هذه التكنولوجيا

شارك
داريو أمودي الرئيس التنفيذي لشركة أنثروبيك (المصدر: رويترز)

لا يعتقد داريو أمودي، الرئيس التنفيذي لشركة الذكاء الاصطناعي الناشئة البارزة " أنثروبيك"، أنه يجب أن يكون هو من يحدد الضوابط التنظيمية للذكاء الاصطناعي.

وفي مقابلة مع أندرسون كوبر ببرنامج "60 Minutes" على قناة سي بي إس نيوز، والتي بُثت في نوفمبر 2025، قال الرئيس التنفيذي إن الذكاء الاصطناعي يجب أن يخضع لتنظيم أكثر صرامة، مع تقليل عدد القرارات المتعلقة بمستقبل هذه التقنية التي تُترك لرؤساء شركات التكنولوجيا الكبرى فقط.

وقال أمودي: "أشعر بعدم ارتياح عميق إزاء اتخاذ هذه القرارات من قبل عدد قليل من الشركات، ومن قبل عدد قليل من الأشخاص"، مضيفًا: "وهذا أحد الأسباب التي جعلتني أدعو دائمًا إلى تنظيم مسؤول ومدروس لهذه التكنولوجيا"، بحسب تقرير لمجلة "فورتشن"، اطلعت عليه "العربية Business".

وأضاف أن شركة أنثروبيك تبنت فلسفة الشفافية بشأن حدود الذكاء الاصطناعي -ومخاطره- مع استمرار تطوره. وقبل نشر المقابلة، صرحت الشركة آنذاك بأنها أحبطت "أول حالة موثقة لهجوم إلكتروني واسع النطاق باستخدام الذكاء الاصطناعي، نُفّذ دون تدخل بشري يُذكر".

وقالت "أنثروبيك" الأسبوع الماضي إنها تبرعت بمبلغ 20 مليون دولار لمنظمة "ببليك فيرست أكشن"، وهي لجنة عمل سياسي معنية بسلامة الذكاء الاصطناعي وتنظيمه، وتُعارض بشكل مباشر لجان العمل السياسي المدعومة من مستثمري شركة أوبن إيه آي المنافسة.

وقال أمودي في مقابلة غلاف مع مجلة "فورتشن" في يناير: "تظل سلامة الذكاء الاصطناعي على رأس أولوياتنا"، مضيفًا: "تقدر الشركات الثقة والموثوقية".

غياب الضوابط ومخاوف السلامة

لا توجد لوائح تحدد أي محظورات على الذكاء الاصطناعي أو تتناول سلامة هذه التكنولوجيا. وفي الولايات المتحدة، قدمت جميع الولايات الأميركية الخمسين هذا العام تشريعات متعلقة بالذكاء الاصطناعي، واعتمدت 38 ولاية أو أقرت تدابير تتعلق بالشفافية والسلامة، بينما حث خبراء في قطاع التكنولوجيا شركات الذكاء الاصطناعي على التعامل مع الأمن السيبراني بحس من الإلحاح.

في مطلع العام الماضي، حذر خبير الأمن السيبراني والرئيس التنفيذي لشركة مانديانت، كيفن مانديا، من وقوع أول هجوم سيبراني باستخدام الذكاء الاصطناعي خلال 12 إلى 18 شهرًا، ما يعني أن إعلان شركة أنثروبيك عن إحباط الهجوم جاء قبل أشهر من الموعد الذي توقعه مانديا.

وقد حدد أمودي مخاطر قصيرة ومتوسطة وطويلة الأجل مرتبطة بالذكاء الاصطناعي غير المقيد؛ إذ ستتمثل المرحلة الأولى في التحيز والمعلومات المضللة، كما هو الحال حاليًا.

ثم ستنتقل التقنية إلى توليد معلومات ضارة مستفيدة من معرفة معززة في مجالي العلوم والهندسة، قبل أن تمثل في النهاية تهديدًا وجوديًا من خلال تقليص دور البشر، وربما تصبح مفرطة الاستقلالية وتستبعد البشر من الأنظمة.

ويعكس هذا القلق مخاوف "الأب الروحي للذكاء الاصطناعي" جيفري هينتون، الذي حذر من أن الذكاء الاصطناعي سيتمكن من التفوق على البشر والسيطرة عليهم، ربما خلال العقد القادم.

كانت الحاجة إلى مزيد من التدقيق والضوابط على الذكاء الاصطناعي، بالإضافة إلى وضع ضمانات، جوهر تأسيس شركة أنثروبيك عام 2021. وكان أمودي يشغل سابقًا منصب نائب رئيس قسم الأبحاث في شركة أوبن إيه آي التي يقودها لسام ألتمان. وقد غادر الشركة بسبب اختلاف وجهات النظر حول مخاوف السلامة المتعلقة بالذكاء الاصطناعي.

وحتى الآن، تبدو جهود أمودي لمنافسة ألتمان ناجحة، فقد أعلنت "أنثروبيك" هذا الشهر أن قيمتها السوقية تبلغ 380 مليار دولار، بينما تُقدر قيمة "أوبن إيه آي" بنحو 500 مليار دولار.

جهود أنثروبيك في الشفافية

مع استمرار أنثروبيك في توسيع استثماراتها في مراكز البيانات، نشرت الشركة بعض جهودها لمعالجة أوجه القصور والمخاطر التي تنطوي عليها تقنيات الذكاء الاصطناعي.

وفي تقرير السلامة الصادر في مايو 2025، أفادت "أنثروبيك" بأن بعض نسخ نموذجها "أوبوس" هددت بالابتزاز، مثل الكشف عن علاقة غرامية لأحد المهندسين، لتجنب إيقاف تشغيله.

وذكرت الشركة أيضًا أن نموذج الذكاء الاصطناعي استجاب لطلبات خطيرة عند تلقيه تعليمات خبيثة، مثل كيفية التخطيط لهجوم إرهابي، وهو ما أكدت أنها قامت بإصلاحه لاحقًا.

وفي نوفمبر الماضي، قالت الشركة في منشور على مدونتها إن روبوت الدردشة "كلود" التابع لها حقق معدل حياد سياسي بلغ 94%، متفوقًا على المنافسين أو مساويًا لهم من حيث الحياد.


إضافةً إلى جهود أنثروبيك البحثية لمكافحة فساد هذه التقنية، دعا أمودي إلى بذل جهود تشريعية أكبر لمعالجة مخاطر الذكاء الاصطناعي. وفي مقال رأي نُشر في صحيفة نيويورك تايمز في يونيو 2025، انتقد قرار مجلس الشيوخ بإدراج بند في مشروع قانون السياسات الذي طرحه الرئيس دونالد ترامب من شأنه أن يفرض حظرًا لمدة 10 سنوات على الولايات التي تنظم الذكاء الاصطناعي.

وأثارت ممارسة "أنثروبيك" في الكشف عن ثغراتها وجهودها لمعالجتها انتقادات واسعة. ففي رد على تحذير أنثروبيك من هجوم إلكتروني مدعوم بالذكاء الاصطناعي، قال يان ليكان، كبير علماء الذكاء الاصطناعي في شركة ميتا آنذاك، إن هذا التحذير ما هو إلا وسيلة للتأثير على المشرعين وحملهم على تقييد استخدام النماذج مفتوحة المصادر.

كما رأى آخرون أن استراتيجية "أنثروبيك" بمثابة تسويق جيد للعلامة التجارية، لكنها لا تقدم تعهدات فعلية بتطبيق ضوابط حقيقية على التكنولوجيا.

العربيّة المصدر: العربيّة
شارك

إقرأ أيضا


حمل تطبيق آخر خبر

آخر الأخبار