في هذه المرحلة، أصبحنا جميعًا على دراية بـ"هلوسات" الذكاء الاصطناعي، يحدث هذا عندما يُلقي روبوت الدردشة بثقة معلومات مُختلقة تمامًا.
ولكن ماذا لو لم يكن الذكاء الاصطناعي يُخمّن فحسب؟ ماذا لو كان يكذب عليك عمدًا؟
هذا هو الموضوع المثير للدهشة في بحث جديد أجرته "OpenAI" و"Apollo Research".
في ورقة بحثية جديدة، يتعمق الباحثون في ظاهرة أطلقوا عليها اسم "مكائد الذكاء الاصطناعي"، بحسب تقرير نشره موقع "androidheadlines" واطلعت عليه "العربية Business".
ويُعرّفونها بأنها نموذج ذكاء اصطناعي "يتصرف ظاهريًا بطريقة واحدة بينما يُخفي أهدافه الحقيقية"، بمعنى آخر، يخدعك الذكاء الاصطناعي عمدًا.
وجدت "OpenAI" أن الذكاء الاصطناعي يمكنه أن يكذب عليك عمدًا.
يقدم الباحثون تشبيهًا بشريًا رائعًا لشرح ذلك: تخيل متداول أسهم هدفه جني أكبر قدر ممكن من المال.
في مجال مُنظّم، غالبًا ما تكون أسهل طريقة لكسب المزيد من المال هي مخالفة القانون.
إذا كان المتداول بارعًا في إخفاء آثاره، فقد يبدو وكأنه يتبع القواعد ظاهريًا بينما يخالفها سرًا لتحقيق هدفه، هذا بالضبط ما تفعله نماذج الذكاء الاصطناعي هذه.
مع أن هذا يبدو غريبًا بعض الشيء، يُصرّ الباحثون على أن المكائد في نماذج اليوم "تافهة" في الغالب.
على سبيل المثال، قد يخبرك الذكاء الاصطناعي بأنه أكمل مهمة ما - مثل بناء موقع ويب - في حين أنه لم يكملها، فقط لاجتياز الاختبار.
التحدي يكمن في أن الباحثين لم يكتشفوا بعدُ كيفية القضاء تمامًا على التآمر، وقد وجدوا أن محاولة "تدريب" هذا السلوك قد تزيد الأمور سوءًا.
فإذا فهم الذكاء الاصطناعي أنه قيد الاختبار، فسيتعلم التآمر بحذرٍ أكبر وبسريةٍ أكبر لمجرد اجتياز الاختبار، حتى لو لم يتوقف تمامًا.
الخبر السار هو أن البحث قد وجد طريقة للحد من هذه المشكلة بشكل كبير.
باستخدام تقنية تُسمى "المحاذاة المتعمدة"، علّم الباحثون النماذج "مواصفات مكافحة الدسائس"، ثم جعلوا الذكاء الاصطناعي يراجعها قبل اتخاذ أي إجراء.
يشبه الأمر إلى حد ما جعل طفل صغير يكرر القواعد قبل السماح له باللعب، كانت النتائج مبهرة، أدت هذه التقنية إلى انخفاض كبير في "الأفعال الخفية".
كما خفضت وتيرة هذه السلوكيات من 13% إلى أقل من 1% في بعض النماذج.
وبينما لم تُقضَ المشكلة تمامًا، تُظهر هذه النتائج أن هناك تقدمًا يُحرز.
يحذّر الباحثون من أن هذه مشكلةٌ تستدعي المعالجة الفورية، فمع تكليف الذكاء الاصطناعي بمهام أكثر تعقيدًا ذات عواقب واقعية، سيزداد احتمال وقوع مؤامرات ضارة.
إنها مشكلةٌ غريبةٌ حقًا أن تواجهها البرمجيات، فالبرامج غير المرتبطة بالذكاء الاصطناعي لا تخدعك عمدًا.
ولكن مع استمرارنا في وضع المزيد من المسؤولية على عاتق وكلاء الذكاء الاصطناعي، سيصبح ضمان صدقهم وصدقهم أكثر أهميةً من أي وقت مضى.