آخر الأخبار

لماذا تختلق النماذج اللغوية الكبيرة المعلومات؟

شارك
شعار شركة أنثروبيك للذكاء الاصطناعي (المصدر: رويترز)

تُعتبر من أكثر الأمور المُحبطة في استخدام النماذج اللغوية الكبيرة هو ميلها إلى اختلاق المعلومات، وإيجاد إجابات مُختلقة لا تدعمها بيانات تدريب.

ومن منظور بشري، قد يكون من الصعب فهم سبب عدم قول هذه النماذج ببساطة "لا أعرف" بدلًا من اختلاق المعلومات.

والآن، يكشف بحث جديد من شركة الذكاء الاصطناعي أنثروبيك عن بعض "دوائر" الشبكة العصبية الداخلية التي تساعد النموذج اللغوي الكبير على تحديد متى يُحاول تقديم رد ربما يكون مُختلق مقابل متى يرفض الإجابة من البداية، بحسب تقرير لموقع "Ars Technica" المتخصص في أخبار التكنولوجيا، اطلعت عليه "العربية Business".

وفي حين أن الفهم البشري لعملية "القرار" الداخلية هذه لا يزال غير واضح، إلا أن هذا النوع من الأبحاث قد يُؤدي إلى حلول أفضل بشكل عام لمشكلة اختلاق الذكاء الاصطناعي للمعلومات.

وفي ورقة بحثية تعود إلى مايو الماضي، استخدمت "أنثروبيك" نظامًا للمساعدة في توضيح مجموعات الخلايا العصبية الاصطناعية التي تُنشَّط عندما يواجه نموذج "Claude" اللغوي الكبير مفاهيم داخلية بما في ذلك "أخطاء البرمجة". وأطلقت "أنثروبيك" على مجموعات الخلايا هذه اسم "الخصائص".

ونشرت "أنثروبيك" الأسبوع الماضي روقة بحثية تتوسع في تتبع طريقة تأثير هذه الخصائص على مجموعات الخلايا العصبية الأخرى التي تُمثل "دوائر" القرارات الحاسوبية التي بتبعها "Claude" في إنشاء رد.

وفي جوهرها، صُممت النماذج اللغوية الكبيرة لأخذ سلسلة النصوص وتوقع النص الذي من المحتمل أن يتبعها، وهو تصميم دفع البعض إلى الاستهزاء بهذه الفكرة باعتبارها "إكمالًا تلقائيًا".

يُعدّ هذا التصميم الأساسي مفيدًا عندما يتطابق النصّ في الاستفسار المُدخل بشكل وثيق مع أنواع البيانات الموجودة بالفعل في بيانات التدريب الوفيرة للنموذج. ومع ذلك، بالنسبة "للحقائق أو الموضوعات الغامضة نسبيًا"، فإن هذا الميل إلى الإكمال دائمًا "يُحفّز النماذج على تخمين إكمالات محتملة لمجموعات النصوص"، وفقًا لما كتبته "أنثروبيك" في بحثها الجديد.

ويساعد الضبط الدقيق على التخفيف من هذه المشكلة، حيث يُوجّه النموذج للعمل كمساعد مُفيد ورفض إكمال الاستفسار عندما تكون بيانات التدريب المرتبطة به نادرة.

وتخلق عملية الضبط الدقيق هذه مجموعات متميزة من الخلايا العصبية الاصطناعية التي يمكن للباحثين رؤيتها وهي تنشط عندما يواجه "Claude" اسم "كيان معروف" (على سبيل المثال، "مايكل جوردان") أو "اسم غير مألوف" (على سبيل المثال، "مايكل باتكين") في نص مُدخل.

وأشار الباحثون إلى أن تفعيل ميزة "الاسم غير المألوف" وسط الخلايا العصبية لدى النموذج اللغوي الكبير يُحفز دائرة "لا أستطيع الإجابة" الداخلية في النموذج، مما يشجعه على تقديم استجابة تبدأ بعبارات مثل "أعتذر، لكن لا أستطيع...".

وفي الواقع، وجد الباحثون أن دائرة "لا أستطيع الإجابة" تميل إلى وضع التفعيل الافتراضي في نسخة "المساعد" المُعدّلة بدقة من نموذج "Claude"، مما يجعل النموذج مترددًا في الإجابة على سؤال ما لم تُشير خصائص نشطة أخرى في شبكته العصبية إلى ضرورة ذلك.

وهذا ما يحدث عندما يواجه النموذج مصطلحًا شائعًا مثل "مايكل جوردان" في النص المُدخل، مما يُفعِّل خاصية "الكيان المعروف" تلك، مما يُؤدي بدوره إلى خمول الخلايا العصبية في دائرة "لا أستطيع الإجابة" أو ضعف نشاطها، وفقًا للباحثين.

وبمجرد حدوث ذلك، يُمكن للنموذج التعمق في رسمه البياني للخصائص المتعلقة بمايكل جوردان لتقديم أفضل تخمين لإجابة سؤال مثل "ما الرياضة التي يلعبها مايكل جوردان؟".

ووجد بحث "أنثروبيك" أن زيادة أوزان الخلايا العصبية في خاصية "الإجابة المعروفة" بشكل مصطنع قد تُجبر "Claude" على الهلوسة بثقة بمعلومات مُختلقة.

وهذا النوع من النتائج يدفع الباحثين إلى اقتراح أن "بعضًا على الأقل" من هلوسات "Claude" مرتبطة بـ "خلل" في الدائرة يُثبّط مسار "لا أستطيع الإجابة".


العربيّة المصدر: العربيّة
شارك

حمل تطبيق آخر خبر

آخر الأخبار