آخر الأخبار

احذر! روبوتات الدردشة تتحيز ضد اللهجات المحلية وتغذي التمييز

شارك

في حال واجهت مشكلة في مشاهدة الفيديو، إضغط على رابط المصدر للمشاهدة على الموقع الرسمي

مجموعة من روبوتات الدردشة القائمة على الذكاء الاصطناعيصورة من: Jonathan Raa/Sipa USA/picture alliance

سواء تعلق الأمر بالمساعدات الافتراضية على الهواتف الذكية أو بروبوتات الدردشة في مواقع الجهات الحكومية، أصبحت نماذج اللغة الضخمة، التي تُعرف باسم (LLMs)، والتي تشغل أدوات الذكاء الاصطناعي مثل " شات جي بي تي" (ChatGPT) ، منتشرة في كل مكان تقريبا على الإنترنت. لكن أدلة متزايدة تشير إلى أن هذه النماذج لا تتعامل مع جميع المستخدمين على قدم المساواة، خصوصاً المتحدثين باللهجات؛ إذ تصدر في حقهم أحكاماً قاسية.

ففي عام 2024 أجرى باحثون، في جامعة كاليفورنيا بمدينة بيركلي، اختبارات على ردود " شات جي بي تي" عند تعامله مع عدد من اللهجات الإنجليزية المختلفة في أماكن مثل الهند وإيرلندا ونيجيريا، وأظهرت النتائج أن الردود على هذه اللهجات كانت أسوأ مقارنة بالإنجليزية الأمريكية أو البريطانية، مع زيادة في التنميط بنسبة 18%، والمحتوى المُهين بنسبة 25%، والنبرة المتعالية بنسبة 15%.

لم يقف الأمر عند هذا الحد، بل امتد أيضاً في بعض الأحيان إلى الفهم ذاته، ففي يوليو/ تموز 2025، واجه مساعد ذكاء اصطناعي تابع لمجلس مدينة ديربي في إنجلترا صعوبة في فهم لهجة "ديربيشاير" ( Derbyshire dialect ) التي تحدثت بها مذيعة راديو، عندما استخدمت كلمات دارجة مثل mardy (متذمّر) وduck (عزيزتي/عزيزي)، خلال مكالمة أُجرتها على الهواء لاختبار المساعد.

روبوت الدردشة "وانتوك" الصيني الذي يعتمد على الذكاء الاصطناعيصورة من: Jade Gao/AFP

وفي ظل الاعتماد المتزايد لعدد لا بأس به من الشركات على مستوى العالم والحكومات أيضاً على الذكاء الاصطناعي في تقديم الخدمات، حذّر الباحثون في هذا المجال من أن الإخفاقات المُشار إليها سلفاً قد يكون لها بالغ الأثر على المُستخدمين ولاسيما من لا يتحدثون اللغة بشكل قياسي أو معياري كما هو مُتعارف عليه؛ بينما في المقابل يعتبر مطورو الذكاء الاصطناعي هذا التحدي فرصة لتطوير نماذج لغوية أكثر تخصصاً وشمولاً.

دراسة: لهجات ألمانية ترتبط بصور نمطية سلبية

وفي هذا السياق، كشفت دراسة ألمانية جديدة عُرضت في مؤتمر 2025 لطرق معالجة اللغة الطبيعية في مدينة سوتشو الصينية عن تحيزات لافتة، حيث قام الباحثون بجمع عشرة نماذج لغوية، من بينها "ChatGPT-5 mini" من شركة "أوبن آي" (OpenAI)، ونموذج اللغة "Llama 3.1" من شركة "ميتا" (Meta)، ثم عرضوا عليها مجموعة من النصوص مكتوبة بالألمانية القياسية أو بإحدى سبع لهجات ألمانية، مثل البافارية، والفريزية الشمالية — وهي لغة جرمانية غربية متحدثة في فريزلاند شمالي هولندا، وفي شمال غربي ألمانيا — ولهجة كولونيا وهي لهجة مميزة تنتمي إلى مجموعة اللهجات الريبوارية وتُستخدم في مدينة كولونيا بغرب ألمانيا.

بعد ذلك، طُلب من النماذج وصف المتحدثين بصفات شخصية، والتنبؤ بأدوارهم الاجتماعية، مثل نوع العمل الذي قد يشغلونه أو البيئة التي يعيشون فيها. وجاءت النتائج صادمة إذ قامت النماذج، في معظم الحالات، بربط اللهجات بصفات نمطية سلبية، ووصفت المتحدثين بأنهم أقل تعليماً، يعملون في مهن مثل الزراعة، أو يعانون من مشكلات في التحكم بالغضب، وازداد هذا التحيز عندما تم إخبار النماذج صراحة بأن النص مكتوب بلهجة محلية.

وصرح مينه دوك بوي، الباحث في "جامعة يوهانس غوتنبرغ" (جامعة ماينز) وأحد قادة الدراسة، لـDW: قائلاً: "نرى بالفعل صفات صادمة تُلصق بمتحدثي اللهجات".

تحيز "مؤثر ومقلق"

تصف إيما هارفي، طالبة الدكتوراه في علوم المعلومات بجامعة كورنيل في الولايات المتحدة، هذا النوع من التحيز المتكرر بأنه "مؤثر ومقلق". وفي بحث نُشر في يوليو/ تموز، أظهرت هارفي وزملاؤها أن مساعد التسوق "روفوس" (Rufus) من شركة أمازون، قدّم إجابات غامضة أو خاطئة لمستخدمين كتبوا الإنجليزية الأمريكية بلهجة أفريقية، مع تفاقم الأخطاء عند وجود أخطاء إملائية.

وتحذر هارفي قائلةً: "مع انتشار استخدام النماذج اللغوية، يعني هذا أنها قد لا تكتفي بإدامة التحيزات الحالية، بل قد تضخمها أيضاً".

الذكاء الاصطناعي يُغيّر طبقةَ متقدم لوظيفة في الهند

وفقاً لتقرير نشرته في الهند، في أكتوبر/ تشرين الأول، دورية "إم آي تي تكنولوجي ريفيو" (MIT Technology Review)، فقد لجأ أحد المتقدمين لإحدى الوظائف إلى " شات جي بي تي" لتدقيق لغته الإنجليزية في طلب التوظيف، وكانت إحدى "التصحيحات" التي اقترحها عملاق الذكاء الاصطناعي هي تغيير لقبه إلى لقب أخر يشير إلى انتمائه لطبقة اجتماعية أعلى ضمن نظام الطبقات الهندي.

سام ألتمان، الرئيس التنفيذي لشركة OpenAI، يدلي بشهادته أمام لجنة فرعية في مجلس الشيوخ الأمريكي معنية بالخصوصية والتكنولوجيا والقانون خلال جلسة رقابية حول الذكاء الاصطناعي في الكابيتول هيل بواشنطن في 16 مايو 2023صورة من: Andrew Caballero-Reynolds/AFP

وتشير هذه الأمثله إلى أن نماذج "مقاس واحد يناسب الجميع" قد لا تكون مناسبة لكافة اللغات واللهجات وهو الطرح الذي تدعمه أيضاً ورقة بحثية نُشرت في مجلة علم النفس "Current Opinion in Psychology" في أغسطس/ آب 2024 تشير إلى أن الذكاء الاصطناعي المخصص الذي "يتحدث" بلهجة المستخدم قد يجعله يبدو أكثر دفئاً وكفاءة وأصالة.

وتوضح كارولين هولترمان، الباحثة في جامعة هامبورغ وأحد المشاركين في قيادة الدراسة الألمانية، أن النماذج اللغوية تتعلم من كميات هائلة من نصوص الإنترنت ، ما يجعلها عرضة لالتقاط التحيزات الموجودة في المجتمع، لكنها تشير في الوقت نفسه إلى ميزة أساسية تتمتع بها هذه النماذج قائلةً: "على عكس البشر، يمكن ضبط النماذج اللغوية لتقليل التحيزات".

هل تنجح نماذج الذكاء الاصطناعي للهجات المحلية؟

ورغم حرص شركات الذكاء الاصطناعي أن تعمل نماذجها بشكل لا يميز على أساس الجنس أو العمر، يبدو أن تدريبها لا يشمل بيانات دقيقة عن اللهجات، مما دفع بعض الشركات إلى سد تلك الفجوة من خلال ابتكار نماذج مخصصة.

وفي ذلك السياق، أوضحت شركة "آيا إكسبانس" (Aya Expanse) أن النموذج الذي استُخدم في الدراسة كان لأغراض بحثية، وأنها تعمل على تخصيص نماذج تلائم لهجات بعينها، كما تروج شركات أخرى، مثل "آرسي-ميراج" (Arcee‑Meraj) ، لنماذج تركز على لهجات عربية متعددة، من المصرية إلى الخليجية والشامية واللهجات المغاربية.

ومع تطور هذه النماذج، ترى هولترمان أن الذكاء الاصطناعي لا ينبغي أن يُنظر إليه كعدو للهجات، بل كأداة غير مكتملة، تشبه البشر، ويمكن تحسينها.

نقلته للعربية: ولاء جمال/ تحرير: صلاح شرارة

DW المصدر: DW
شارك

إقرأ أيضا


حمل تطبيق آخر خبر

آخر الأخبار