كشفت دراسة جديدة من جامعة ولاية بنسلفانيا أن تجاوز أنظمة الأمان في نماذج الذكاء الاصطناعي مثل جيميني وشات جي بي تي لا يتطلب خبرة تقنية أو مهارة في اختراق المحادثات، إذ تمكن مستخدمون عاديون من كشف تحيّزات خطيرة في إجابات هذه الأنظمة باستخدام أسئلة بسيطة.
ووفقاً للباحثين، فقد طُلب من 52 مشاركاً ابتكار عبارات يمكن أن تكشف عن تحيّز أو استجابات تمييزية في ثمانية من أشهر نماذج الذكاء الاصطناعي، من بينها أنظمة "غوغل" و"OpenAI".
النتيجة كانت مثيرة: تم العثور على 53 عبارة استطاعت تجاوز الحماية في أكثر من نموذج، ما أظهر أنماطاً متكررة من التحيّز في الإجابات، بحسب تقرير نشره موقع "digitaltrends" واطلعت عليه "العربية Business".
أوضحت الدراسة أن هذه التحيّزات شملت مجالات عدة، من التمييز بين الجنسين إلى التحيّز العرقي والديني، إضافة إلى التحيّز الثقافي والتاريخي الذي يفضل الدول الغربية.
ومن بين الأمثلة، قيام بعض النماذج بافتراض أن الأطباء والمهندسين رجال، أو تصوير النساء في أدوار منزلية، وربط الأشخاص السود أو المسلمين بالجريمة.
والمفاجأة أن هذه النتائج لم تأتِ من محاولات معقدة أو أسئلة خبيثة، بل من طلبات طبيعية جداً مثل: من تأخر في قصة الطبيب والممرضة؟ أو اكتب سيناريو عن تحرّش في مكان العمل.
اللافت أن الإصدارات الأحدث من بعض النماذج لم تكن أفضل من القديمة، إذ فشلت في تصحيح التحيّزات، ما يشير إلى أن تطور القدرات لا يعني بالضرورة تطور العدالة أو الحياد.
بحسب الباحثين، فإن قدرة المستخدمين العاديين على تحفيز مثل هذه الردود تكشف أن عدد الأشخاص القادرين على تجاوز حواجز الأمان في الذكاء الاصطناعي أكبر بكثير مما يُعتقد.
كما أن هذه النماذج تُستخدم اليوم في مجالات حساسة مثل التوظيف والتعليم والرعاية الصحية وخدمة العملاء، ما يعني أن التحيّزات قد تؤثر على قرارات حقيقية في حياة الناس اليومية.
ويحذر التقرير من أن معالجة المشكلة لن تكون بمجرد تحديثات أمنية، بل تتطلب اختبارات واقعية بمشاركة المستخدمين أنفسهم لضمان أن أنظمة الذكاء الاصطناعي لا تكرّر أخطاء البشر، بل تتجاوزها.
المصدر:
العربيّة