آخر الأخبار

من الذكاء الأخلاقي إلى الإعلانات.. استقالة تهز "OpenAI" بسبب شات جي بي تي

شارك
شعارا شركة "OpenAI" و"شات جي بي تي" (رويترز)

انتقدت زوي هيتزيغ، الباحثة السابقة في شركة أوبن إيه آي، علنًا تحول الشركة نحو استراتيجيات الربح، مشيرة إلى المخاوف الأخلاقية كسبب رئيسي لاستقالتها من الشركة.

ووفقًا لهيتزيغ، يُمثّل قرار "أوبن إيه آي" الأخير بإضافة الإعلانات إلى النسخة المجانية من روبوت الدردشة "شات جي بي تي" انحرافًا كبيرًا عن مهمتها الأصلية المتمثلة في تطوير ذكاء اصطناعي أخلاقي، بحسب ما كتبته هيتزيغ في مقال رأي بصحيفة نيويورك تايمز.

ولا تثير هذه الخطوة تساؤلات حول الشفافية وثقة المستخدمين فحسب، بل تُبرز أيضًا توترات أوسع نطاقًا بين الضغوط المالية والمسؤوليات المجتمعية في ابتكار الذكاء الاصطناعي.

تأسست "أوبن إيه آي" بهدف طموح يتمثل في ضمان استفادة البشرية جمعاء من الذكاء الاصطناعي، وبدأت كمنظمة غير ربحية، وتمحورت مهمتها حول البحث والتطوير الأخلاقيين.

لكن التحول إلى نموذج ربحي أثار تساؤلات حول ما إذا كانت هذه الرؤية الأساسية تتعرض للخطر. تشير هيتزيغ إلى تركيز المنظمة المتزايد على تحقيق الربح، والذي يتجلى في مستويات الاشتراك والخدمات المتميزة، والآن الإعلانات، كدليل واضح على هذا التحول.

وتحذر هيتزيغ من أن إعطاء الأولوية لتوليد الإيرادات قد يطغى على التطوير الآمن والأخلاقي لتقنيات الذكاء الاصطناعي. فمن خلال التركيز على عوائد المساهمين، قد تتجاهل "أوبن إيه آي" دون قصد مسؤوليتها في إعطاء الأولوية لرفاه المجتمع والعدالة في نشر تقنيات الذكاء الاصطناعي.

ويمثل قرار دمج الإعلانات في النسخة المجانية من "شات جي بي تي" تحولًا كبيرًا عن ممارسات "أوبن إيه آي" السابقة. ورغم أن الإعلانات قد تُسهم في تخفيف التكاليف الباهظة المرتبطة بتشغيل النماذج اللغوية الكبيرة، فهي تُثير في الوقت نفسه العديد من التحديات الأخلاقية.

ويثير دمج الإعلانات ضمن تفاعلات الذكاء الاصطناعي مخاوف بالغة، منها:

- التلاعب بسلوك المستخدم: قد تؤثر الإعلانات الموجهة بشكل غير مباشر على قرارات المستخدمين، مما يقوض التصور بوجود مساعدة ذكاء اصطناعي محايدة.

- استغلال البيانات الشخصية: يثير استخدام البيانات الشخصية لاستهداف الإعلانات تساؤلات حول الخصوصية والموافقة على استخدام البيانات.

التأثير التجاري: يؤدي دمج الإعلانات إلى طمس الحدود بين مخرجات الذكاء الاصطناعي الموضوعية والمصالح التجارية، مما قد يضعف الثقة.

وأكدت هيتزيغ أن هذه الممارسات قد تقلل من ثقة المستخدمين، خاصة إذا لم يكن الأفراد على دراية بكيفية استخدام بياناتهم أو كيفية تخصيص الإعلانات بناءً على تفاعلاتهم. وتجادل بأن الشفافية أمر أساسي للحفاظ على الثقة في أنظمة الذكاء الاصطناعي

العربيّة المصدر: العربيّة
شارك

إقرأ أيضا


حمل تطبيق آخر خبر

آخر الأخبار