قد يرغب مستخدمو "شات جي بي تي" في التفكير مليًا قبل اللجوء إلى روبوت الدردشة من أجل العلاج النفسي أو أي نوع آخر من الدعم العاطفي.
وقال سام ألتمان، الرئيس التنفيذي لشركة " OpenAI"، إن صناعة الذكاء الاصطناعي لم تكتشف بعد كيفية حماية خصوصية المستخدم في مثل هذه المحادثات الأكثر حساسية، نظرًا لعدم وجود سرية بين الطبيب والمريض عندما يكون طبيبك ذكاءً اصطناعيًا.
أدلى ألتمان بهذه التعليقات في حلقة حديثة من بودكاست "This Past Weekend" الذي يقدمه ثيون فون، بحسب تقرير لموقع "TechCrunch" المتخصص في أخبار التكنولوجيا، اطلعت عليه "العربية Business".
وردًا على سؤال حول كيفية تعامل الذكاء الاصطناعي مع النظام القانوني الحالي، قال ألتمان إن إحدى المشكلات الناتجة عن غياب إطار قانوني أو سياسي للذكاء الاصطناعي حتى الآن هي عدم وجود سرية قانونية لمحادثات المستخدمين مع الذكاء الاصطناعي.
وقال ألتمان: "الناس يتحدثون عن أكثر الأمور الشخصية في حياتهم مع شات جي بي تي"، مضيفًا: "الناس يستخدمونه -الشباب خصوصًا يستخدمونه- كمعالج نفسي، أو مدرب حياة... (ويسألونه) "ماذا يجب أن أفعل؟"".
وتابع: "حاليًا، إذا تحدثت إلى معالج نفسي أو محام أو طبيب حول هذه المشكلات، فهناك حصانة قانونية لذلك. هناك سرية بين الطبيب والمريض، أو سرية قانونية، وما إلى ذلك. ولم نكتشف ذلك بعد في حالة تحدثك مع شات جي بي تي".
وأضاف ألتمان أن هذا قد يُثير قلقًا بشأن خصوصية المستخدمين في حالة رفع دعوى قضائية، لأن "OpenAI"-مطورة شات جي بي تي- ستكون مُلزمة قانونًا بالكشف عن هذه المحادثات.
وقال: "أعتقد أن هذا خطأ فادح. أعتقد أنه يجب أن يكون لدينا مفهوم الخصوصية نفسه لمحادثاتك مع الذكاء الاصطناعي كما هو مع المعالج النفسي أو أيًا كان".
وتُدرك الشركة أن غياب الخصوصية قد يُعيق انتشار تقنيتها على نطاق أوسع. وإلى جانب حاجة الذكاء الاصطناعي إلى كم هائل من البيانات عبر الإنترنت خلال فترة التدريب، يُطلب منه أيضًا تقديم بيانات من محادثات المستخدمين في بعض السياقات القانونية.
وقد طعنت "OpenAI" بالفعل في أمر قضائي في دعوى قضائية ضدها من صحيفة نيويورك تايمز، والذي يُلزمها بحفظ محادثات مئات الملايين من مستخدمي "شات جي بي تي" حول العالم، باستثناء محادثات عملاء خدمة "ChatGPT Enterprise".