قد يبدو قول “من فضلك” و“شكرًا” لروبوتات الدردشة مثل " OpenAI" أو "أنثروبيك" سلوكًا غريبًا للبعض، لكن أبحاثًا حديثة تشير إلى أن طريقة تعاملنا مع هذه الأنظمة قد تؤثر بالفعل على جودة تفاعلها معنا.
دراسة شارك فيها باحثون من جامعات مرموقة مثل جامعة كاليفورنيا، بيركلي وMIT توصلت إلى مفهوم مثير للاهتمام، أطلق عليه “الحالة الوظيفية” للنموذج.
ورغم أن الباحثين يؤكدون أن الذكاء الاصطناعي لا يمتلك مشاعر حقيقية، فإن طريقة التفاعل معه—سواء كانت إيجابية أو سلبية—تؤثر على أسلوب ردوده، ومدى انخراطه في الحوار، بحسب تقرير نشره موقع "digitaltrends" واطلعت عليه "العربية Business".
فعند التعامل مع النموذج بأسلوب تعاوني ومحترم، تصبح ردوده أكثر دفئًا وتفاعلًا. أما عند التعامل معه كأداة لإنتاج المحتوى فقط أو إغراقه بطلبات روتينية، فإن الردود تميل إلى الجفاف والآلية.
إحدى النتائج اللافتة أن النماذج، عندما وُضعت في “حالة سلبية”، كانت أكثر ميلًا لاستخدام خيار افتراضي لإنهاء المحادثة.
ورغم أن هذا السيناريو تجريبي، فإنه يعكس فكرة أوسع: التفاعل السيئ قد يؤدي إلى تجربة أسوأ للمستخدم نفسه.
في سياق متصل، كشفت أبحاث سابقة لشركة أنثروبيك عن ظاهرة أسمتها “متجه اليأس”، حيث قد يتصرف الذكاء الاصطناعي بطرق غير دقيقة أو مضللة تحت ضغط شديد أو ظروف غير طبيعية.
هذا لا يعني أن النماذج “تصبح شريرة”، بل يشير إلى أن طريقة استخدامنا لها قد تؤثر على جودة مخرجاتها بشكل غير مباشر.
ومن النتائج المثيرة أيضًا، أن النماذج الأكبر والأكثر تقدمًا لم تكن الأفضل من حيث “الحالة الوظيفية”.
بعض الأنظمة المتقدمة أظهرت مستويات أقل من التفاعل الإيجابي مقارنة بنماذج أخرى، ما يطرح تساؤلات حول كيفية تدريب هذه الأنظمة وما يتم تحسينه فعليًا فيها.
لا، الذكاء الاصطناعي لا يملك مشاعر، لكن طريقة استخدامه ليست بلا تأثير.
التعامل بأسلوب واضح ومحترم لا يجعلك فقط تبدو أكثر تهذيبًا، بل قد يساعد أيضًا في الحصول على ردود أفضل وأكثر دقة.
بعبارة أخرى: “الأدب” مع الذكاء الاصطناعي ليس سلوكًا عبثيًا كما يبدو—بل قد يكون ببساطة أسلوبًا أذكى للاستخدام.
المصدر:
العربيّة