آخر الأخبار

الذكاء الاصطناعي: هل تتمتع محادثاتنا مع تشات جي بي تي بالخصوصية؟

شارك
مصدر الصورة

هل أخبرت روبوت دردشة بمعلومات أو أسرار شخصية؟ هل أجريت جلسات "علاج نفسي" مع نموذج ذكاء اصطناعي؟ إذا كانت الإجابة بنعم، فلست وحدك، إذ إن هناك عدداً متزايداً من الأشخاص الذين يستخدمون "تشات جي بي تي" على سبيل المثال، للحصول على نصائح في أمور شخصية وكأداة للعلاج، وفق سام ألتمان المدير التنفيذي لشركة أوبن إيه آي OpenAI صاحبة روبوت الدردشة الشهير. لكن هل فكرت يوماً فيما إذا كانت هذه المحادثات خاصة لا يمكن أن يطلع عليها غيرك، أو إذا كانت تشكل مساحة آمنة؟

الإجابة بالنفي، وفق تصريحات أدلها بها ألتمان مؤخراً وأشار فيها إلى أنه إذا تحدث المستخدم مع "تشات جي بي تي" عن أمور شخصية بالغة الحساسية، ثم كانت هناك دعوى قضائية ضده، فإن الشركة من الممكن أن تُلزَم بتقديم تلك المحادثات.

تصريحات ألتمان تثير أسئلة مهمة تتعلق بخصوصية البيانات واحتمال تسربها أو إساءة استخدامها، والمخاطر السيبرانية التي تنتج عن تزويد روبوتات الدردشة بمعلومات حساسة.

هل يوجد شيء اسمه "محادثة خاصة" مع روبوتات الدردشة؟

روبوتات الدردشة الشهيرة مثل "تشات جي بي تي" و"كوبايلوت" و"جيميناي" لا توفر خاصية التشفير من طرف إلى طرف، التي تضمن أن الرسائل أو البيانات يتم تشفيرها على جهاز المرسل ولا تُفَك شفرتها إلا على جهاز المستلم. وتُستخدم هذه الخاصية على نطاق واسع في تطبيقات مثل "واتساب" و"سيغنال" و"آي مسج" لحماية خصوصية المستخدمين ومنع اعتراض البيانات.

عادة ما تقوم منصات الذكاء الاصطناعي بجمع البيانات وتخزينها لتدريب نماذجها بغرض تحسينها. هذه البيانات قد تستخدم لتحليل سلوك المستخدم وتحديد الاتجاهات الشائعة، أو "التريندات".

تقول إيفا غالبرين، مديرة الأمن السيبراني بمؤسسة إلكترونيك فرانتيير غير الربحية التي تعمل في مجال الدفاع عن الحريات المدنية في الفضاء الرقمي، لبي بي سي عربي إنه "يمكن للشركة التي تشغّل نظام الذكاء الاصطناعي أن ترى تلك المحادثات، وقد تقوم بما يعرف بعملية التنقيب في البيانات (data mining) أو بيع محتوى المحادثة".

ويلفت الدكتور مايكل فيل، أستاذ الحقوق والقواعد الرقمية بكلية القانون في جامعة يونيفرسيتي كولدج لندن، إلى أن بعض روبوتات الدردشة بشكل عام "توفر إعدادات إذا تم تفعيلها يمكن أن تحد من استخدام محادثات الأفراد في التدريبات المستقبلية"، لكنه يضيف أنها "تحتفظ بكل البيانات بغرض مراقبة المحتوى، أي التحقق مما إذا كنت قد قلت شيئاً ضاراً أم لا والتعلم من ذلك".

كما أن بعض الأشخاص لا يدركون أنهم يجعلون محتويات محادثاتهم متاحة للآخرين.

على سبيل المثال، مستخدمو تطبيق روبوت الدردشة الجديد التابع لشركة "ميتا" قد لا يدركون أنهم عندما يضغطون على خيار المشاركة "Share" فإنهم يضيفون محادثاتهم إلى قائمة المحتوى "Discover"، وهو ما يعني أن المستخدمين الآخرين بات باستطاعتهم رؤيتها.

تحدث العديد من خبراء الأمن السيبراني عن أن ذلك يشكل مشكلةً أمنيةً كبيرة لأنه يمكن تتبع المحادثة بسهولة إلى حسابات على وسائل التواصل الاجتماعي من خلال أسماء المستخدمين أو صور البروفايل الخاصة بهم.

مصدر الصورة

في وقت سابق من الشهر الحالي، وفي مثال آخر على مخاطر افتراض أن محادثات الذكاء الاصطناعي تتمتع بالسرية، سُربت محادثات مع "تشات جي بي تي" إلى محرك البحث "غوغل"، بعضها يحتوي على مواد حساسة مثل مناقشات تتعلق بمضاربات في البورصة وتفاصيل شخصية واعترافات عاطفية أو قانونية.

حدث ذلك بسبب خاصية المشاركة "Share" التي تسمح للمستخدمين بإنشاء رابط يتيح للآخرين الاطلاع على المحادثة. أثناء المشاركة، كان هناك خيار "Make this chat discoverable" الذي إذا تم تفعيله، فإن الرابط يصبح قابلاً للفهرسة على محركات البحث مثل "غوغل"، ومن ثم يظهر في نتائج البحث. وقد دفع ذلك شركة "أوبن إيه آي" إلى التخلص من هذا الخيار، كما قالت إنها تعمل على إزالة المحادثات من محركات البحث.

لكن خبراء في مجال الإنترنت نبهوا إلى أنها قد تظل متاحة من خلال بعض الأدوات التي تحفظ أو تخزن صفحات الإنترنت، مثل تلك الموجودة على موقع "أرشيف الإنترنت" Internet Archive.

كما يلفت الدكتور فيل إلى أن "أحد أبرز الصعوبات هي أن بعض روبوتات الدردشة، كتلك الموجودة على أجهزة غوغل أو أبل، مدمجة في نظام التشغيل وكل ملفاتك ورسائلك الموجودة عليه".

خبير القانون الرقمي يشرح قائلا إنه "من الصعب جداً فهم ما سيحدث لتلك البيانات. والمخاطر الأمنية لهذا الدمج كبيرة، لا سيما عندما تعطى ربوتات الدردشة القدرة على الدخول على شبكة الإنترنت أو التفاعل معها، إذ إن هذا قد يؤدي إلى تسريب المعلومات من جهازك إلى مواقع أخرى".

هل يمكن أن تتعرض روبوتات الدردشة للقرصنة؟

قد تتعرض روبوتات الدردشة لما يعرف بـ"هجمات حقن الأوامر" "prompt injection attacks"، وهي نوع من الهجمات السيبرانية التي تشمل إدخال بيانات أو أوامر خبيثة لنموذج الذكاء الاصطناعي بغرض الحصول على بيانات حساسة أو وثائق خاصة يحتفظ بها ذلك النموذج.

كما أن "الشركة [المشغلة للروبوت] نفسها من الممكن أن تتعرض للقرصنة، لكن هذا يكون أحياناً أقل إثارة للقلق عندما يتعلق الأمر بشركات تكنولوجيا كبرى، مقارنةً بتسريب حساب فردي. ومع ذلك، فإن العديد من الأنظمة يتم دمجها بشكل متزايد مع خدمات أطراف ثالثة، ومثل هذا الأمر اعتاد تاريخياً أن يجعل البيانات شديدة القابلية للتسريب ومعرضة للاختراق"، على حد قول الدكتور فيل.

هل يمكن لمحادثات الذكاء الاصطناعي أن تُستخدم ضدك؟

"إذا ذهبت للتحدث مع تشات جي بي تي عن أكثر أمورك حساسية، ثم كانت هناك دعوى قانونية مقامة ضدك أو شيء من هذا القبيل، فإننا قد نجبَر على تقديم تلك البيانات، وأعتقد أن هذا أمر غير سليم على الإطلاق"، هكذا قال سام ألتمان خلال ظهوره في أحد حلقات بودكاست صانع المحتوى الرقمي "ثيو فون" في أواخر يوليو/تموز.

في الوقت الحالي، يمكن لجهات إنفاذ القانون أن تطلب بيانات تتعلق بالمستخدمين أنفسهم أو بمحتوى محادثاتهم مع نماذج الذكاء الاصطناعي.

وتكشف تقارير "أوبن إيه آي" عن زيادة في عدد الطلبات التي تتلقاها من جهات إنفاذ القانون وغيرها من الوكالات الحكومية للحصول على بيانات المستخدمين، لإدراك "الشرطة ووكالات الاستخبارات أنها مصدر قيّم للمعلومات التي تتعلق بما يفعله الناس على أجهزة الكمبيوتر الخاصة بهم"، على حد قول الدكتور فيل.

ومع تزايد عدد الأشخاص الذين يلجأون إلى "تشات جي بي تي" للحصول على الاستشارات الطبية والقانونية، يلفت ألتمان إلى أنه "عندما تتحدث مع معالج نفسي أو محام أو طبيب عن هذه المشكلات، فإن هناك امتيازات قانونية، هناك السرية المهنية بين الطبيب والمريض، وبين المحامي والموكل. هذا غير متوافر بعد فيما يخص حديثك مع تشات جي بي تي". وطالب ألتمان بضرورة أن يكون هناك "نفس مفهوم الخصوصية لمحادثاتك مع الذكاء الاصطناعي".

مصدر الصورة

كيف نحمي خصوصيتنا؟

تقول خبيرة الأمن السيبراني إيفا غالبرين إن شركات الذكاء الاصطناعي لا تتخذ إجراءات كافية لحماية خصوصية المستخدمين، خاصةً عندما لا يدرك الأشخاص أن محادثاتهم قد تخَزن أو يراجعها بشر.

وفيما يتعلق بالأطر التشريعية، يقول الدكتور فيل: " أولاً وقبل أي شيء، ينبغي أن تصدر الحكومات قوانين قوية لحماية البيانات والخصوصية وتطبق هذه القوانين. وسوف يتطلب ذلك تعاوناً دولياً في المجال التشريعي ومجهودات ضخمة في السلك القضائي. سوف يكون نضالاً شاقاً، بل هو كذلك بالفعل، لأن الشركات تحاول اللجوء إلى الكثير من الحيل القانونية القذرة لكي تتهرب من المحاسبة في هذا المجال".

النصيحة التي يقدمها كل من فيل وغالبرين لمستخدمي روبوتات الدردشة بسيطة للغاية: عدم إعطائها أي بيانات يفضلون أن تظل خاصة وألا تكون متاحةً للعامة، "وخاصةً إذا كانوا لا يفهمون إعدادات الخصوصية للنظم التي يستخدمونها، أو إذا كانوا لا يرغبون في المجازفة بوضع ثقتهم في تلك الشركات".

يتحدث الكثير من خبراء الأمن السيبراني عن توخي الحذر فيما نشارك به روبوتات الدردشة من بيانات ومعلومات، ومن بين الأشياء المشتركة التي يقول هؤلاء أن المستخدم لا ينبغي أن يعطيها لتلك الروبوتات:


* المعلومات الخاصة التي يمكن من خلالها التعرف على هويتك مثل الاسم الكامل وعنوان المنزل ورقم الهاتف وتاريخ الميلاد

* كلمات المرور الخاصة بحساباتك على الإنترنت

* المعلومات المالية مثل أرقام الحسابات أو البطاقات الائتمانية

* البيانات التي تتعلق بأسرار عملك

* بياناتك الطبية

لا شك أن روبوتات الدردشة التي تعمل بالذكاء الاصطناعي أصبحت تلعب دوراً كبيراً في الحياة اليومية للكثيرين في شتى بقاع العالم، فعدد المستخدمين النشطين ل"تشات جي بي تي" وحده بلغ ما بين 700 إلى 800 مليون مستخدم في الأسبوع وفق أحدث التقديرات. هذه الأدوات من الممكن أن تكون قيمة للغاية، لكنها ليست "مساحات آمنة" للبوح بالأسرار.

وما بين التسريبات المحتملة للمحادثات وتهديدات القرصنة واحتمال استخدام "دردشاتنا" في قاعات المحاكم، يتبين أن الخطوط الفاصلة بين ما هو خاص وما هو عام ليست بالوضوح الذي قد يتصوره البعض. من هنا تبرز أهمية فهم إعدادات الخصوصية لنموذج الذكاء الاصطناعي الذي نستخدمه، وعدم إعطائه أي معلومات شخصية أو حساسة. في نهاية المطاف نحن نتعامل مع أدوات توصف طريقة عملها بأنها "كالصندوق الأسود"، وتوصف هي نفسها بأنها "ثقب أسود للخصوصية".

بي بي سي المصدر: بي بي سي
شارك

إقرأ أيضا


حمل تطبيق آخر خبر

آخر الأخبار