آخر الأخبار

"شات جي بي تي" يؤرق سام ألتمان ليلاً لهذه الأسباب

شارك
سام ألتمان الرئيس التنفيذي لشركة OpenAI وفي الخلفية شعار الشركة (المصدر: رويترز)

تحدث سام ألتمان، الرئيس التنفيذي لشركة الذكاء الاصطناعي "OpenAI" مطورة " شات جي بي تي"، في مقابلة الأسبوع الماضي عن مجموعة واسعة من الموضوعات الأخلاقية حول شركته وروبوت الدردشة التابع لها وكذلك عن حياته الشخصية.

وكشف ألتمان، خلال المقابلة التي أجراها مع مذيع قناة "فوكس نيوز" السابق تاكر كارلسون، أنه يعجز عن النوم بشكل طبيعي بسبب القلق بشأن عدة أمور، ومن بينها "شات جي بي تي".

وقال ألتمان: "لا أنام جيدًا في الليل. هناك الكثير من الأمور التي أشعر أنها تُثقل كاهلي، لكن ربما لا شيء يفوق حقيقة أن مئات الملايين من الناس يتحدثون إلى نموذجنا يوميًا"، بحسب تقرير لقناة "سي إن بي سي"، اطلعت عليه "العربية Business".

وأضاف: "في الواقع، لا أقلق بشأن اتخاذنا للقرارات الأخلاقية الكبرى بشكل خاطئ"، مع أنه أقر بأنه "ربما نُخطئ فيها أيضًا".

وتابع أن ما يحرمه من النوم أكثر هو في الواقع "القرارات الصغيرة جدًا" المتعلقة بسلوك "شات جي بي تي"، والتي قد يكون لها في النهاية تداعيات كبيرة.

وتتمحور هذه القرارات عادة حول الأخلاقيات التي تُوجه "شات جي بي تي"، والأسئلة التي يُجيب عليها روبوت الدردشة أو لا يجيب عليها.

وفي ما يلي لمحة عن بعض تلك المعضلات الأخلاقية التي يبدو أنها تؤرق ألتمان ليلًا.

كيف يتعامل "شات جي بي تي" مع الانتحار؟

وفقًا لألتمان، فإن أصعب مشكلة تواجهها شركة "OpenAI" مؤخرًا هي كيفية تعامل "شات جي بي تي" مع الانتحار، في ضوء دعوى قضائية رفعتها عائلة ألقت باللوم على روبوت الدردشة في انتحار ابنها المراهق.

وأوضح الرئيس التنفيذي لـ"OpenAI" أنه من بين آلاف الأشخاص الذين ينتحرون أسبوعيًا، ربما كان الكثير منهم يتحدثون إلى "شات جي بي تي" في الفترة التي سبقت انتحارهم.

وقال ألتمان بصراحة: "ربما تحدثوا عن (الانتحار)، وربما لم ننقذ حياتهم. ربما كان بإمكاننا قول شيء أفضل. ربما كان بإمكاننا أن نكون أكثر استباقية. ربما كان بإمكاننا تقديم نصيحة أفضل قليلًا (مثل) مرحبًا، عليك الحصول على مساعدة".

وبعد فترة وجيزة من رفع والدا مراهق دعوى قضائية ضد "OpenAI" زاعمين مسؤولية الشركة عن انتحار ابنهما المراهق، شرحت الشركة، في منشور عبر مدونتها، خططها لمعالجة عيوب أوجه القصور في "شات جي بي تي" عند التعامل مع "المواقف الحساسة"، وقالت إنها ستواصل تحسين تقنيتها لحماية الأشخاص الأكثر ضعفًا.

كيف تُحدد أخلاقيات "شات جي بي تي"؟

تحدث الرئيس التنفيذي لـ"OpenAI" خلال المقابلة أيضًا عن الأخلاقيات والمبادئ التي توجه "شات جي بي تي" والقائمين عليه.

ورغم أن ألتمان وصف النموذج الأساسي لـ"شات جي بي تي" بأنه مُدرّب على الخبرة والمعرفة والدروس الجماعية المكتسبة للبشر، قال إنه يجب على "OpenAI" بعد ذلك مواءمة سلوكيات مُعينة لروبوت الدردشة وتحديد الأسئلة التي لن يُجيب عليها.

وقال: "هذه مُشكلة صعبة حقًا. لدينا الكثير من المستخدمين الآن، وهم يأتون من خلفيات حياتية مُختلفة تمامًا... لكن بشكل عام، لقد فوجئتُ على نحوٍ جيد بقدرة النموذج على تعلم وتطبيق إطار أخلاقي".

وعند سؤاله عن كيفية تحديد مواصفات نموذج معين، قال ألتمان إن الشركة استشارت "مئات الفلاسفة (المتخصصين) في الأخلاق والأشخاص الذين فكروا في أخلاقيات التكنولوجيا والأنظمة".

وضرب مثالًا على المواصفات التي وُضعت للنموذج، وهو أن "شات جي بي تي" سيتجنب الإجابة على أسئلة حول كيفية صنع الأسلحة البيولوجية إذا طلب المستخدمون ذلك.

وقال ألتمان: "هناك أمثلة واضحة حيث يكون للمجتمع مصلحة تتعارض بشكل كبير مع حرية المستخدم"، مع أنه أضاف أن الشركة "لن تُصيب كل شيء، وتحتاج أيضًا إلى مساهمة العالم" للمساعدة في اتخاذ مثل هذه القرارات.

العربيّة المصدر: العربيّة
شارك

إقرأ أيضا


حمل تطبيق آخر خبر

آخر الأخبار