آخر الأخبار

ميزة جديدة في "شات جي بي تي" تجعله قنبلة موقوتة و"OpenAI" تحاول كبحها

شارك
شعار شات جي بي تي يظهر على شاشة هاتف وفي الخلفية شعار شركة OpenAI (المصدر: رويترز)

يَعِدُ أحدثُ مُنتَج من شركة "OpenAI" بتسهيل جمع البيانات تلقائيًا، وإنشاء جداول البيانات، وحجز الرحلات، وإعداد عروض تقديمية، وربما، حتى المساعدة بناء سلاح بيولوجي.

ويُعد " وكيل شات جي بي تي"، وهو وكيل ذكاء اصطناعي جديد أضافته الشركة لروبوت الدردشة "شات جي بي تي" قادر على اتخاذ إجراءات نيابةً عن المستخدم، أولَ مُنتَج تُصنِّفه "OpenAI" على أنه يتمتع بقدرة "عالية" في ما يتعلق بالمخاطر البيولوجية.

ويعني هذا التصنيف أن نموذج الذكاء الاصطناعي يُمكنه تقديم مساعدة فعّالة للجهات والأشخاص "المبتدئين" وتمكينهم من التسبب في تهديدات بيولوجية أو كيميائية، بحسب تقرير لمجلة فورتشن، اطلعت عليه "العربية Business".

ووفقًا لـ"إطار التأهب" الخاص بـ"OpenAI"، الذي تستخدمه الشركة لرصد المخاطر الجديدة التي تُسبِّب أضرارًا جسيمة من نماذجها المتقدمة والاستعداد لها، فإن التداعيات الواقعية لهذا الأمر قد تعني أن حوادث الإرهاب البيولوجي أو الكيميائي التي تُنفذها جهات غير حكومية ستصبح أكثر احتمالًا وتكرارًا.

وقال بواز باراك، أحد أعضاء الفريق الفني في "OpenAI"، في منشور على مواقع التواصل: "البعض قد يظن أن المخاطر البيولوجية غير حقيقية، وأن النماذج لا تقدم سوى معلومات يمكن العثور عليها من خلال البحث. ربما كان هذا صحيحًا في 2024، لكنه بالتأكيد ليس صحيحًا اليوم. بناءً على تقييماتنا وتقييمات خبرائنا، فإن الخطر حقيقي للغاية".

وأضاف: "في حين لا يمكننا الجزم بأن هذا النموذج قادر على تمكين شخص مبتدئ من إحداث ضرر بيولوجي جسيم، أعتقد أنه كان من غير المسؤول إطلاق هذا النموذج دون إجراءات وقائية شاملة مثل تلك التي قمنا بتطبيقها".

تدابير وقائية

قالت "OpenAI" إن تصنيف النموذج على أنه عالي الخطورة لإساءة الاستخدام البيولوجي كان "نهجًا احترازيًا"، وهو تصنيف أدى إلى إجراءات وقائية إضافية للأداة.

وقالت كيرين جو، الباحثة في مجال السلامة لدى "OpenAI"، إنه على الرغم من عدم امتلاك الشركة أدلة قاطعة على أن النموذج يمكن أن يُرشد فعليًا شخصًا مبتدئًا إلى إحداث ضرر بيولوجي جسيم، فقد فعّلت الشركة إجراءات الحماية على أي حال.

وتشمل هذه الإجراءات جعل وكيل شات جي بي تي يرفض الرسائل التي قد تكون مُصممة لمساعدة شخص ما على إنتاج سلاح بيولوجي، وأنظمة ترصد الطلبات التي قد تكون غير آمنة وتحولها للمراجعة من قبل خبراء، وقواعد صارمة لحجب المحتوى الخطير، واستجابات أسرع للمشكلات، ومراقبة دقيقة لأي علامات على سوء الاستخدام.

وأصبحت الشركة قلقة بشكل متزايد بشأن احتمالية إساءة استخدام النماذج في تطوير الأسلحة البيولوجية. وفي منشور بمدونتها الشهر الماضي، أعلنت "OpenAI" أنها تُكثف اختبارات السلامة للحد من خطر استخدام نماذج الذكاء الاصطناعي الخاصة بها للمساعدة في صنع أسلحة بيولوجية.

وحذرت الشركة من أنه بدون هذه الاحتياطات، قد تُمكّن النماذج قريبًا من "رفع مستوى المبتدئين"، أي مساعدة الأفراد ذوي الخلفية العلمية المحدودة على تطوير أسلحة خطيرة.

وقال باراك: "على عكس التهديدات النووية والإشعاعية، فإن الحصول على المواد لا يُمثل عائقًا كبيرًا أمام إنشاء تهديدات بيولوجية وبالتالي يعتمد الأمن بشكل أكبر على ندرة المعرفة والمهارات المخبرية".

وتابع: "بناءً على تقييماتنا وخبراء خارجيين، يُمكن لوكيل شات جي بي تي غير المقيد سد هذه الفجوة المعرفية وتقديم نصائح أقرب إلى خبير متخصص".

تُعد ميزة الوكيل الجديدة في "شات جي بي تي"، التي أضافتها "OpenAI" مؤخرًا ،محاولةً للاستفادة من أحد أكثر مجالات تطوير الذكاء الاصطناعي رواجًا وخطورةً؛ إلا وهو وكلاء الذكاء الاصطناعي.

وتتسابق مختبرات الذكاء الاصطناعي حاليًا لبناء وكلاء يمكنهم إدارة المهام الرقمية المعقدة بشكل مستقل، ويأتي إطلاق هذه الميزة عقب إصدارات مماثلة من "غوغل" و"أنثروبيك". وترى شركات التكنولوجيا الكبرى في وكلاء الذكاء الاصطناعي فرصةً تجاريةً واعدةً، إذ تتجه الشركات بشكل متزايد نحو دمج الذكاء الاصطناعي في سير العمل وأتمتة بعض المهام.

وأقرت "OpenAI" بأن زيادة استقلالية نماذج الذكاء الاصطناعي تُسبب مخاطر أكبر، وتؤكد الشركة أهمية تحكم المستخدم للحد من هذه المخاطر. على سبيل المثال، يطلب الوكيل الإذن قبل اتخاذ أي إجراء مهم، ويمكن للمستخدم إيقافه مؤقتًا أو إعادة توجيهه أو إيقافه في أي وقت.

العربيّة المصدر: العربيّة
شارك

إقرأ أيضا


حمل تطبيق آخر خبر

آخر الأخبار