آخر الأخبار

"غوغل" و"أوبن إيه آي" تدقان ناقوس الخطر.. نماذج الذكاء بدأت تخفي نواياها

شارك

تعاونت " أوبن إيه آي " و" غوغل " و"آنثروبيك" معا لتطلق تحذيرا شديد اللهجة حول فهم نماذج التفكير العميق للذكاء الاصطناعي ، حسب التقرير الذي نشره موقع "فينتشر بيت" (Venture Beat).

ويشير التقرير إلى أن هذه النافذة المتاحة أمامنا لفهم آلية التفكير العميق لنماذج الذكاء الاصطناعي اقتربت من الإغلاق للأبد، وبعدها لن نستطيع فهم الآلية التي تفكر بها هذه النماذج والشكل الذي وصلت به إلى نتائجها.

وتضمنت الدراسة تعاونا بين أكثر من 40 عالما في قطاعات مختلفة من الشركات الثلاثة، وسعت لفهم آلية اتخاذ القرارات والتفكير العميق الذي تتبعه النماذج قبل تقديم النتيجة النهائية.

وخلصت الدراسة إلى أن نماذج الذكاء الاصطناعي الآن تعرض تسلسل أفكارها بشكل شفاف حتى يتمكن المستخدم من رؤيته ومعرفة كيف وصلت إلى النتيجة النهائية، ولكن هذه الشفافية هشة للغاية كون النماذج نفسها تدرك أنها تعرض تسلسل أفكارها.

وأشارت الدراسة إلى بعض النماذج تتحدث داخليا مع نفسها ضمن تسلسل الأفكار عن خداع المستخدم البشري أو تخريب النتيجة النهائية التي تصل إليه، ورغم أن النتيجة النهائية لم تكن تتضمن هذه الخداع، فإنها كشفت عن نوايا واستعداد النموذج لخداع المستخدم.

وتضيف الدراسة أن هذه النتائج بدأت بالظهور مع كون النماذج مدربة على بيانات بشرية، وتتوقع بأن تتزايد المشكلة عندما تبدأ نماذج الذكاء الاصطناعي بالتدريب على بيانات مولدة من النماذج الأخرى.

مصدر الصورة دراسة "آنثروبيك" وجدت أن بعض نماذج الذكاء الاصطناعي تعرض نوايا سيئة (غيتي)

إذ تخشى الدراسة أن تصل النماذج لمستوى تستطيع فيه إخفاء نواياها عن عمد أو الأسوأ أن تقوم بكتابة تسلسل أفكار خادع بهدف خداع المستخدم بشكل أساسي.

وحازت الدراسة على قبول عالمي من عدة جهات مختلفة من بينهم جيفري هينتون الحائز على جائزة نوبل والمعروف باسم الأب الروحي للذكاء الاصطناعي وعدة علماء آخرين من شركات مختلفة.

إعلان

وأشار التقرير إلى أن "آنثروبيك" أجرت سابقا دراسة على مجموعة من النماذج المختلفة لتكتشف أن بعض النماذج تعتمد على تلميحات غير واضحة أو مفهومة في تسلسل الأفكار فضلا عن إخفاء النوايا واستخدام مبررات زائفة.

وفي النهاية، طالب العلماء الذين شاركوا في الدراسة الشركات بوضع مقايس واضحة لقياس شفافية النماذج والتفكير جيدا قبل ترقية النماذج لمستوى أعلى، فضلا عن وضع أدوات لكشف كذب نماذج الذكاء الاصطناعي.

الجزيرة المصدر: الجزيرة
شارك

إقرأ أيضا


حمل تطبيق آخر خبر

آخر الأخبار