آخر الأخبار

تحذير من داخل وادي السيليكون.. راقبوا أفكار الذكاء الاصطناعي قبل أن يفوت الأوان

شارك
صورة تعبيرية عن الذكاء الاصطناعي

في تحرك نادر يوحّد أبرز عقول الذكاء الاصطناعي حول العالم، دعا باحثون من "OpenAI" و" غوغل ديب مايند" و"أنثروبيك"، إلى جانب مؤسسات تقنية وأكاديمية مرموقة، إلى مراقبة ما يُعرف بـ "سلاسل أفكار" الذكاء الاصطناعي.

جاء ذلك في ورقة موقف نُشرت هذا الأسبوع، محذرين من فقدان السيطرة على هذه التقنية المتقدمة إذا لم يتم التحرك الآن.

ما هي سلاسل الأفكار ولماذا تُثير القلق؟

"سلاسل الأفكار" أو CoT (Chain of Thought)، هي طريقة تفكير يستخدمها الذكاء الاصطناعي لحل المشكلات خطوة بخطوة، على غرار كتابة الإنسان لملاحظات لحل مسألة معقدة، بحسب تقرير نشره موقع "تك كرانش" واطلعت عليه "العربية Business".

تعتبر هذه السلاسل حاسمة لفهم كيفية وصول الذكاء الاصطناعي إلى قراراته، خاصةً في نماذج الاستدلال الحديثة مثل o3 من "OpenAI" وR1 من "ديب سيك".

ويحذر الباحثون من أن هذه السلاسل، رغم وضوحها حاليًا، قد تصبح أقل شفافية مع تطور النماذج، ما يجعل من الصعب تتبع منطق الآلة وفهم نواياها.

دعوة للبحث العاجل

تدعو الورقة المطورين إلى دراسة كيفية جعل هذه السلاسل أكثر قابلية للمراقبة، وتحذّر من أي تقنيات قد تقلل من وضوحها أو تُعرّض موثوقيتها للخطر.

ويقول الباحثون إن مراقبة CoT قد تصبح في المستقبل وسيلة رئيسية لضمان سلامة وموثوقية نماذج الذكاء الاصطناعي.

توقيعات بأوزان ثقيلة

من بين الأسماء الموقعة على الورقة:

- جيفري هينتون، "عرّاب الذكاء الاصطناعي" والحائز على نوبل.

- إيليا سوتسكيفر، الرئيس التنفيذي لشركة Safe Superintelligence.

- مارك تشين من شركة OpenAI.

- شين ليج من "غوغل ديب مايند".

- دان هندريكس مستشار السلامة في "xAI".

- عدد من الباحثين من "أمازون" و"ميتا" وجامعة بيركلي ومؤسسة Apollo Research.

سباق بين الأداء والفهم

على الرغم من الإنجازات اللافتة في أداء الذكاء الاصطناعي خلال العام الماضي، لا يزال الفهم العميق لآلية اتخاذ القرار لدى هذه النماذج محدودًا.

وقد حذّر الباحث بوين بيكر من "OpenAI"، قائلاً: "نحن نمر بمرحلة حرجة. هذه الطريقة الجديدة في التفكير قد تختفي خلال سنوات إن لم نحظَ بالاهتمام الكافي بها الآن."

مخاوف من السرعة وغياب الشفافية

مع تسارع تطوير نماذج الاستدلال منذ إطلاق "OpenAI" لأول نموذج من هذا النوع (o1) في سبتمبر 2024، تسعى شركات مثل "xAI" و"غوغل ديب مايند" إلى التفوق في سباق الأداء، لكن الخبراء يُحذّرون من أن ذلك قد يُغفل أهمية فهم المنطق الداخلي للقرارات التي تتخذها هذه الأنظمة.

"أنثروبيك" تقود جهود التفسير

تعد شركة أنثروبيك من أبرز الجهات المهتمة بمفهوم قابلية التفسير، وقد أعلن مديرها التنفيذي داريو أمودي عن خطة تمتد حتى 2027 لفك شفرة "عقل" الذكاء الاصطناعي.

كما شدد على ضرورة تعاون الشركات الكبرى مثل "OpenAI" و"غوغل ديب مايند" لدفع هذا المجال قُدمًا.

تشير أبحاث "OpenAI" إلى أن مراقبة "سلاسل التفكير" قد تصبح أداة لتتبع مدى توافق وسلامة النماذج، وهو اتجاه تدعمه الورقة الجديدة، التي تهدف إلى جذب التمويل والاهتمام البحثي نحو هذا المجال قبل أن يصبح التعامل مع النماذج المتقدمة تحديًا خارج السيطرة.

العربيّة المصدر: العربيّة
شارك

إقرأ أيضا


حمل تطبيق آخر خبر

آخر الأخبار