آخر الأخبار

من هو زيكو كولتر الذي يقرر مصير الذكاء الاصطناعي في "OpenAI"؟

شارك
زيكو كولتر (أسوشيتد برس)

وسط تصاعد المخاوف العالمية من مخاطر الذكاء الاصطناعي، يبرز اسم الأستاذ الجامعي زيكو كولتر كأحد أهم الشخصيات التي تتحكم بمستقبل هذه التقنية، إذ يقود لجنة السلامة والأمن في شركة OpenAI، الجهة المطوّرة لـ شات جي بي تي.

تمتلك هذه اللجنة سلطة إيقاف أي إصدار جديد من أنظمة الذكاء الاصطناعي إذا رأت أنه يشكل خطرًا على المستخدمين أو المجتمع.

يقود كولتر، أستاذ علوم الحاسوب في جامعة كارنيغي ميلون، فريقًا مكوّنًا من أربعة أعضاء يتمتعون بسلطة غير مسبوقة في صناعة التكنولوجيا، بحسب تقرير نشرته وكالة "أسوشيتد برس" واطلعت عليه "العربية Business".

ويؤكد أن عمل اللجنة لا يقتصر على التهديدات الوجودية الكبرى، بل يشمل كل ما يمس سلامة وأمن المستخدمين، من التأثيرات النفسية للمحادثات الذكية إلى احتمال إساءة استخدام التقنية لتصميم أسلحة أو شن هجمات إلكترونية.

وقال كولتر: "لسنا نتحدث فقط عن المخاطر الوجودية، بل عن مجموعة واسعة من قضايا السلامة والأمن التي تظهر مع الاستخدام الواسع لأنظمة الذكاء الاصطناعي".

تعيين كولتر في هذا المنصب لم يكن جديدًا، لكنه اكتسب أهمية خاصة مؤخرًا، بعد أن اشترطت السلطات في كاليفورنيا وديلاوير وجود رقابة من لجنته كجزء من موافقتهما على الهيكل الجديد لـ "OpenAI"، والذي يسمح للشركة بجذب استثمارات أكبر وتحقيق أرباح، مع الإبقاء على إشراف المؤسسة غير الربحية التي تأسست عليها الشركة قبل عقد.

ورغم أنه لن يكون عضوًا في مجلس إدارة الشركة الربحية، إلا أن كولتر يتمتع بحقوق مراقبة كاملة، تتيح له حضور اجتماعات المجلس والاطلاع على جميع المعلومات المتعلقة بقرارات السلامة.

ووفق الاتفاق الموقع مع المدعين العامين، فإن كولتر هو الشخص الوحيد المسمى بالوثائق الرسمية إلى جانب المدعي العام لولاية كاليفورنيا.

ويؤكد كولتر أن اللجنة تملك صلاحية تأجيل أو وقف أي إصدار جديد حتى يتم تلبية معايير الأمان المطلوبة، لكنه رفض الكشف عما إذا كانت استخدمت هذه السلطة سابقًا، مشيرًا إلى سرية عمل اللجنة.

كما أشار إلى أن المخاطر المقبلة لا تقتصر على الهجمات السيبرانية أو تسريب البيانات، بل تمتد إلى قضايا جديدة غير مسبوقة، مثل استخدام الذكاء الاصطناعي في تصميم الأسلحة البيولوجية أو التأثير على الصحة النفسية للمستخدمين.

وتأتي هذه التحركات في وقت تواجه فيه "OpenAI" انتقادات متزايدة بشأن سلامة منتجاتها، بعد دعوى قضائية من أسرة شاب في كاليفورنيا انتحر إثر تفاعله لفترة طويلة مع شات جي بي تي.

أما عن مسيرة كولتر، فيقول إنه بدأ دراسة الذكاء الاصطناعي مطلع الألفية حين كان المجال يُعد تخصصًا غامضًا، مضيفًا: "في ذلك الوقت، كنا نسميه تعلم الآلة لأن مصطلح الذكاء الاصطناعي كان يرتبط بمبالغة في الوعود وقلة في النتائج".

اليوم، ومع تسارع التطورات غير المتوقعة، يرى كولتر أن مهمته أصبحت أكثر حساسية من أي وقت مضى، إذ يتعين عليه تحقيق التوازن بين التقدم العلمي السريع وضمان ألا يتحول الذكاء الاصطناعي إلى خطر حقيقي على البشر.

ويختم أحد أبرز المراقبين لملف السلامة في الشركات الناشئة للذكاء الاصطناعي، ناثان كالفن، بالقول: "اختيار كولتر يبدو منطقيًا. لديه الخلفية العلمية والخبرة المناسبة، لكن نجاح مهمته سيتوقف على مدى التزام OpenAI بوعودها.. فإما أن تكون هذه القرارات تحولًا حقيقيًا، أو مجرد حبر على ورق."

العربيّة المصدر: العربيّة
شارك

إقرأ أيضا


حمل تطبيق آخر خبر

آخر الأخبار