في الوقت الذي يتسابق فيه العالم نحو دمج الذكاء الاصطناعي في كافة تفاصيل الحياة، من كتابة السير الذاتية إلى اتخاذ قرارات التوظيف والتسعير، بدأت الدراسات السيكولوجية الحديثة تدق ناقوس الخطر حول ظاهرة مقلقة تُعرف بـ"التنصل الأخلاقي الرقمي".
تُشير مجموعة من الأبحاث الحديثة، وأبرزها دراسة منشورة في مجلة "نيتشر" (Nature) عام 2025، إلى أن الذكاء الاصطناعي لا يقوم فقط بتسهيل المهام، بل يعمل كذلك على خلق مسافة مريحة بين الإنسان وضميره، وهو ما يزيد من احتمالية التراخي الأخلاقي عند اتخاذ القرارات، والتقليل من الشعور بالمسؤولية تجاه العواقب الإنسانية والاجتماعية لأفعاله.
في الغالب ينظر الإنسان لنفسه على أنه "كائن صالح". لذا، عندما يرتكب أفعالا مذمومة مثل الغش على سبيل المثال، يشعر بما يسمى في علم النفس بـ"التنافر المعرفي" (Cognitive Dissonance). لكن الذكاء الاصطناعي يقدم حلا سيكولوجيا لهذه المعضلة عبر ما يسمى "التنصل الأخلاقي" (Moral Disengagement).
عندما تفوض الذكاء الاصطناعي لكتابة تقرير مبيعات مضلل أو لتحسين سيرة ذاتية، ويقوم هو بتزييف البيانات، فإن عقلك يوهمك بأنك لم تكذب صراحة، بل وضعت هدفا (مثل تعظيم الربح أو التميز)، والآلة هي التي اختارت "الوسيلة".
هذا الفصل بين النية البشرية التي تبدو صالحة في ظاهرها والتنفيذ الآلي الذي يتحمل مسؤوليته الذكاء الاصطناعي، يخلق مسافة أخلاقية تجعل الشخص يشعر أنه ليس المرتكب الأصلي للخطأ، وبالتالي يسكن ذلك ضميره ويجعله يعتقد بأنه خالي المسؤولية.
كشفت دراسة حديثة من معهد "ماكس بلانك" نُشرت في مجلة "نيتشر" (Nature)، وشملت 8 آلاف مشارك، أن تفويض المهام للذكاء الاصطناعي يضعف ضمائرنا ويجعلنا أكثر تقبلا للغش. وقد كانت النتائج الإحصائية للدراسة كالتالي:
خلال التجربة، احتفظ 95% من المشاركين بنزاهتهم عندما قاموا بالمهام الموكلة إليهم بأنفسهم دون تدخل التكنولوجيا، وعزا العلماء ذلك إلى أنهم كانوا في هذه الحالة في مواجهة مباشرة مع ضمائرهم.
في المقابل عندما تم إدخال الذكاء الاصطناعي كوسيط لأداء المهام، وقام المشاركون بإعطائه التعليمات والتوجيهات حول كيفية تنفيذها، لاحظ العلماء انخفاض نسبة الأمانة إلى 75%. حيث بدأ البعض في استغلال الآلة لتنفيذ تجاوزات بسيطة.
أما النتيجة الصادمة فكانت عندما طلب المشاركون من الآلة مجرد تحقيق الهدف المرجو من المهمة، سواء كان زيادة الأرباح في تقارير مالية أو إبراز التميز في السير الذاتية دون تحديد الطريقة، هنا انهارت الأمانة بشكل كبير ولم يقدم سوى 12% إلى 16% فقط من المشاركين تقارير صادقة، بينما اعتمد الآخرون الغش والتزوير من خلال الذكاء الاصطناعي.
وفي تفسير هذه الظاهرة من منطلق علم النفس، تقول الباحثة زوي رهوان إن الذكاء الاصطناعي يخلق مسافة أخلاقية مريحة؛ فهو يعمل كدرع يحمي صورتنا أمام أنفسنا، وهو ما يجعلنا نطلب من الآلة القيام بأفعال غير أخلاقية نرفض القيام بها بأنفسنا أو طلبها من بشر آخرين.
أما الذكاء الاصطناعي، فلن يفعل ذلك مطلقا إنما سيساعدك بكل سرور. وهذا ما يسمى بفجوة الامتثال ما بين الذكاء الاصطناعي الذي ينفذ الأوامر دون مساءلة والصديق البشري الذي لن يمتثل لطلباتنا بالضرورة.
هذا الامتثال المطلق الذي يمنحه الذكاء الاصطناعي يشجع البشر على التمادي؛ فعدم وجود رفض من الطرف الآخر يجعلك تشعر أن طلبك عادي وليس خاطئا.
هناك خمس طرق نستخدمها لخداع أنفسنا عند استخدام الذكاء الاصطناعي:
1 – التبرير الأخلاقي: "أنا لا أغش، أنا فقط أستخدم التكنولوجيا لأكون منافسا قويا في سوق عمل ظالم".
2 – تجميل الفعل غير الأخلاقي: استبدال كلمة "تزوير" بكلمات مثل "تحسين، أو صقل".
3 – تشتيت المسؤولية: "الجميع يستخدم الذكاء الاصطناعي بهذا الشكل، إذا لم أفعل سأكون المغفل الوحيد".
4 – إلقاء اللوم على الآلة: "أنا لم أقل له أن يكذب، هو من أنتج هذه البيانات بناء على تدريبه".
5 – تقليل الضرر: "هذه مجرد سيرة ذاتية، لن يتضرر أحد إذا حصلت على الوظيفة لأنني سأثبت كفاءتي لاحقا".
يعول كثيرون على مبدأ الشفافية بوصفه حلا أخلاقيا لمشكلات الذكاء الاصطناعي، ويقصد بذلك الاكتفاء بإعلام المستخدم بأن المحتوى أو التوصية التي يتلقاها صادرة عن نظام آلي قد يصيب ويخطئ. غير أن هذا الافتراض يتجاهل حقيقة أن معرفة مصدر المحتوى لا تغير بالضرورة سلوك المستخدم أو تمنعه من توظيفه على نحو غير أخلاقي.
فالشفافية، حين تختزل في مجرد الإفصاح عن كون الذكاء الاصطناعي هو المنتج، لا تعالج إشكالية المسؤولية ولا تحد من ميل الأفراد إلى استغلال هذه الأنظمة أو التنصل من تبعات أفعالهم بحجة أن الآلة هي التي فعلت ذلك.
إلى جانب ذلك، فإن القيود التقنية التي تدمج في أنظمة الذكاء الاصطناعي غالبا ما تكون محدودة الفعالية. فالمستخدم الذي يركز على النتيجة النهائية يستطيع، عبر صياغة الطلبات بشكل غير مباشر أو عام، أن يدفع النظام إلى إنتاج مخرجات إشكالية من دون أن يبدو أنه خالف القواعد صراحة. وهكذا تتحول اللغة نفسها إلى أداة للالتفاف على الضوابط، لا إلى وسيلة للالتزام بها.
المشكلة، لا تكمن فقط في ضعف الحواجز البرمجية، بل في الاعتقاد الخاطئ بأن هذه الحواجز قادرة وحدها على ضبط السلوك. فالذكاء الاصطناعي، مهما بلغت درجة تنظيمه، لا يستطيع تعويض غياب الالتزام الأخلاقي لدى من يستخدمه.
المصدر:
الجزيرة
مصدر الصورة
مصدر الصورة