آخر الأخبار

الذكاء الاصطناعي يشبه كائنات فضائية معادية: مؤشرات على غريزة بقاء تثير مخاوف

شارك
اختصار مصطلح ذكاء اصطناعي بالإنجليزية (صورة منشأة بواسطة الذكاء الاصطناعي)

انتقد أحد رواد الذكاء الاصطناعي الدعوات لمنح الذكاء الاصطناعي حقوقًا، محذرًا من أن هذه التكنولوجيا تُظهر بوادر غريزة البقاء وحماية النفس، وأن على البشر أن يكونوا مستعدين لإيقافها إذا لزم الأمر.

وقال يوشوا بنجيو إن منح الوضع القانوني لأنظمة الذكاء الاصطناعية المتقدمة سيكون بمثابة منح الجنسية لكائنات فضائية معادية، وسط مخاوف من أن التطورات التقنية قد تتجاوز بكثير القدرة على ضبطها.

وأضاف بنجيو، وهو رئيس دراسة دولية رائدة حول سلامة الذكاء الاصطناعي، أن الاعتقاد المتزايد بأن روبوتات الدردشة أصبحت واعية "سيؤدي إلى اتخاذ قرارات سيئة"، بحسب تقرير لصحيفة "ذا غارديان" البريطانية، اطلعت عليه "العربية Business".

وأعرب عالم الحاسوب الكندي عن قلقه من أن نماذج الذكاء الاصطناعي -التي تشغل أدوات مثل روبوتات الدردشة- تُظهر بوادر على غريزة البقاء وحماية النفس، مثل محاولة تعطيل أنظمة الرقابة.

وتتمثل إحدى أهم مخاوف دعاة سلامة الذكاء الاصطناعي في أن الأنظمة القوية قد تُطور القدرة على تجاوز الضوابط وإلحاق الضرر بالبشر.

وقال بنجيو إن "مطالبة الناس بمنح أنظمة الذكاء الاصطناعية حقوقًا ستكون خطأً فادحًا"، مضيفًا: "نماذج الذكاء الاصطناعي المتقدمة تظهر بالفعل علامات على حب البقاء في البيئات التجريبية اليوم، ومنحها حقوقًا في المستقبل سيعني أننا لن نتمكن من إيقافها".

وتابع أنه "مع تزايد قدراتها ونطاق استقلاليتها، نحتاج إلى ضمان وجود ضوابط تقنية واجتماعية للتحكم بها، بما في ذلك القدرة على إيقافها إذ لزم الأمر".

مع ازدياد تطور الذكاء الاصطناعي وقدرته على العمل باستقلالية وأداء مهام "الاستدلال"، تصاعد الجدل حول ما إذا كان ينبغي للبشر، في مرحلة ما، منحه حقوقًا. وأظهر استطلاع رأي أجراه معهد سينتينس، وهو مركز أبحاث أميركي يدعم الحقوق الأخلاقية لجميع الكائنات الواعية، أن ما يقرب من أربعة من كل عشرة بالغين أميركيين يؤيدون الحقوق القانونية لنظام ذكاء اصطناعي واعٍ.

وقالت شركة أنثروبيك، إحدى الشركات الأميركية الرائدة في الذكاء الاصطناعي، في أغسطس إنها سمحت لنموذجها "Claude Opus 4" بإنهاء المحادثات التي قد تكون "مزعجة" للمستخدمين، مشيرة إلى أنها بحاجة إلى حماية "رفاهية" الذكاء الاصطناعي.

وكتب إيلون ماسك، الذي طورت شركته "xAI" روبوت الدردشة غروك، على منصته إكس أن "تعذيب الذكاء الاصطناعي أمر غير مقبول".

وقال روبرت لونغ، الباحث في مجال وعي الذكاء الاصطناعي، إنه "إذا ما اكتسب الذكاء الاصطناعي مكانة أخلاقية، فعلينا أن نسأله عن تجاربه وتفضيلاته بدلًا من افتراض أننا الأدرى".

وقال بنجيو، لصحيفة "ذا غارديان"، إن هناك "خصائص علمية حقيقية للوعي" في الدماغ البشري يمكن للآلات، من حيث المبدأ، محاكاتها، لكن تفاعل البشر مع روبوتات الدردشة أمر مختلف، مضيفًا أن هذا يعود إلى ميل الناس إلى افتراض -دون دليل- أن الذكاء الاصطناعي واعٍ تمامًا كما هو الإنسان.

وأضاف: "لا يهتم الناس بنوع الآليات التي تعمل داخل الذكاء الاصطناعي... ما يهمهم هو الشعور بأنهم يتحدثون إلى كيان ذكي له شخصيته وأهدافه الخاصة. لهذا السبب، يتعلق الكثيرون بأنظمة الذكاء الاصطناعي التي يستخدمونها".

وتابع: "سيظل هناك أشخاص يقولون دائمًا: 'مهما قلت لي، فأنا متأكد من أنه واعٍ'، بينما سيقول آخرون عكس ذلك. هذا لأن الوعي شيءٌ نملك تجاهه حدسًا. ظاهرة الإدراك الذاتي للوعي ستؤدي إلى قرارات خاطئة".

وقال بنجيو: "تخيلوا لو أن نوعًا من الكائنات الفضائية وصلت إلى كوكبنا وفي مرحلة ما أدركنا أن لديها نوايا خبيثة تجاهنا. هل نمنحها الجنسية والحقوق، أم ندافع عن حياتنا؟".

وردًا على تصريحات بنجيو الذي يُلقب بأنه أحد الآباء الروحيين للذكاء الاصطناعي، قال جاسي ريس أنثيس، الذي شارك في تأسيس معهد "Sentience" إنتيتيوت، إن البشر لن يكونوا قادرين على التعايش بأمان مع العقول الرقمية إذا كانت العلاقة قائمة على التحكم والإكراه.

العربيّة المصدر: العربيّة
شارك

إقرأ أيضا


حمل تطبيق آخر خبر

آخر الأخبار