أثار إعلان "أوبن إيه آي" نيتها عرض الإعلانات داخل "شات جي بي تي" استياء المستخدمين والخبراء على حد سواء، وربما كان أبرزهم ترك الباحثة زوي هيتزيغ منصبها في "أوبن إيه آي" لأن الشركة تسير على خطا " فيسبوك" و"ميتا" في الإعلانات.
وتحدثت هيتزيغ عن تجربتها مع "أوبن إيه آي" وأسباب استقالتها في تقرير مطول نشرته صحيفة "نيويورك تايمز" (New York Times) الأميركية، وفيها أوضحت أنها انضمت إلى "أوبن إيه آي" في المقام الأول لتسهم في صناعة نماذج الذكاء الاصطناعي ووضع سياسات السلامة المبكرة.
ولكن "أوبن إيه آي" قررت أن تسلك اتجاها مختلفا بناء على وصف هيتزيغ، وتوقفت عن البحث في الأسئلة التي انضمت للإجابة عليها في المقام الأول.
ويتشارك العديد من الخبراء مع هيتزيغ في استيائها من عرض "أوبن إيه آي" للإعلانات بشكل مباشر داخل أدوات الذكاء الاصطناعي الخاصة بها، ومن بينهم المسؤولون في شركة "أنثروبيك" (Anthropic) المسؤولة عن تطوير أكبر منافسي "شات جي بي تي"، إذ أكدت في إعلان سابق أنها لن تعرض الإعلانات في أدواتها في أي وقت مستقبلي وفق تقرير منفصل من "سي إن بي سي" (CNBC).
كما أن الرئيس التنفيذي لشركة " غوغل ديب مايند" ديميس هاسابيس اندهش من توجه "أوبن إيه آي" لعرض الإعلانات وفق تقرير منفصل من موقع "تيك كرانش" (TechCrunch) التقني الأميركي، ولكن لماذا كل هذه المخاوف؟
لا تعترض هيتزيغ بشكل مباشر على عرض الإعلانات في مختلف المنصات بسبب التكاليف المرتفعة لتطوير تقنيات الذكاء الاصطناعي وتشغيلها بشكل مباشر، ولكنها تجد أزمة أخلاقية كبيرة في الاعتماد على أدوات تمتلك بيانات ومعلومات حساسة عن المستخدمين.
وتضيف قائلة: "يتحدث المستخدمون مع شات جي بي تي عن أكثر الجوانب حساسية وخصوصية في حياتهم، وذلك لإيمانهم بأن الأداة لا تملك أي دوافع خفية".
وتشير إلى أن المعلومات التي يقدمها المستخدمون إلى "شات جي بي تي" تتضمن معلومات عن حياتهم الدينية ومشاكلهم الشخصية والنفسية وحتى مشاكل العمل والمخاوف الطبية التي يعانون منها، وربما بعض المعلومات عن الآخرين.
ورغم أن "أوبن إيه آي" تنوي الالتزام بمعايير الأمان والخصوصية في الإعلانات التي تقوم بعرضها، إلا أن هيتزيغ تظن أن هذا التوجه سيتغير مع الزمن عندما يعتاد الناس على وجود الإعلانات داخل النموذج.
وتربط هيتزيغ بين سلوكيات "أوبن إيه آي" الحالية في عرض الإعلانات والسلوكيات التي اتبعتها "فيسبوك" في بدايتها، مشيرة إلى أنها كانت تتعهد بحماية بيانات المستخدمين وعدم جعلها تؤثر في الإعلانات، وهو الأمر الذي تغير في الوقت الحالي.
وتطرح هيتزيغ سؤالا محوريا حول قدرة "أوبن إيه آي" على بناء هيكل لا يتعامل مع بيانات المستخدمين بكونها سلعة تباع للشركات المعلنة.
رغم أن "أوبن إيه آي" تعد الشركة الأبرز في قطاع الذكاء الاصطناعي وتقدم "شات جي بي تي" الذي يعد أكثر أدوات الذكاء الاصطناعي استخداما وفق الإحصاءات، إلا أن هناك مجموعة من المنافسين الذين يرفضون توجهاتها أيضا.
وتأتي "أنثروبيك" في مقدمتهم، وهي الشركة التي عرضت إعلانا في بطولة "سوبر بول" (Super Bowl) الأميركية الأبرز لتؤكد أن أدوات الشركة ستكون خالية من الإعلانات، وذلك لأنها تعتمد بشكل مباشر على الأرباح من التعاون مع الشركات الكبرى وتقديم حلول الذكاء الاصطناعي لها فضلا عن الاشتراكات من المستخدمين وفق تقرير "سي إن بي سي".
وبينما لم يرفض هاسابيس الرأي عرض الإعلانات بشكل مباشر داخل أدوات "غوغل ديب مايند"، إلا أنه أكد أن فريقه يفكر في الأمر بشكل حذر للغاية وفق تقرير موقع "تيك كرانش" التقني.
وأضاف أن إدارة "غوغل" لم تطلب منهم اتخاذ أي قرارات أو تضغط عليهم لعرض الإعلانات داخل نماذج الذكاء الاصطناعي، وذلك رغم أن الإعلانات تمثل جزءا كبيرا من نموذج "غوغل" لتحقيق الأرباح.
يرى هاسابيس فرقا جوهريا بين محركات البحث وروبوتات الدردشة؛ فبينما تنجح الإعلانات مع البحث التقليدي، يعتمد نموذج "المساعد الرقمي" على بناء علاقة ثقة مع المستخدم ليكون مفيدا في حياته الشخصية. وتساءل هاسابيس عن كيفية مواءمة الإعلانات مع هذا النموذج دون التأثير سلبا على تلك الثقة.
يصل عدد المستخدمين النشطين شهريا في "شات جي بي تي" إلى أكثر من 800 مليون مستخدم، وبينما تقدم الشركة مجموعة من الخدمات المدفوعة، إلا أن غالبية هؤلاء المستخدمين يعتمدون على النسخة المجانية من الأداة حسب تقرير "أسوشيتد برس".
ورغم أن التقييم المبدئي للشركة وصل إلى 500 مليار دولار، إلا أنها تخسر أموالا أكثر من التي تدرها، لذلك تحتاج إلى إيجاد طريقة جديدة للتحول إلى حالة الربحية وفق التقرير.
وتعد الشركة ألا تؤثر البيانات الموجودة في المحادثات بشكل مباشر في الإعلانات المعروضة للمستخدمين، ولكن يشير تقرير موقع "ذا كونفرسيشن" (The Conversation) الأسترالي إلى أن القيود الذاتية التي تضعها الشركات على نفسها غالبا ما تفشل في المستقبل، وهو ما يتفق مع رأي هيتزيغ وسببها في الاستقالة.
المصدر:
الجزيرة
مصدر الصورة
مصدر الصورة