آخر الأخبار

خطر جديد يهدد أفراد عائلتك.. تقنيات التعري الافتراضي بالذكاء الاصطناعي تنذر بأزمة اجتماعية خطيرة

شارك

في عصر التطور التكنولوجي المتسارع، أصبح الذكاء الاصطناعي أداة ذات استخدامات متعددة يمكن أن تخدم البشرية أو تهددها.

صورة تعبيرية / Gettyimages.ru

ومن بين أكثر التطبيقات إثارة للجدل والخطورة هي تقنيات "التعري الافتراضي"، التي تتيح تعديل الصور باستخدام خوارزميات الذكاء الاصطناعي لإزالة الملابس من صور الأشخاص دون موافقتهم. هذه التقنية، التي أثارت رعبا عالميا كبيرا، تمثل تهديدا مباشرا للخصوصية الفردية وللقيم الاجتماعية، مما يستدعي تحركا حكوميا عاجلا لوضع ضوابط صارمة تحد من استخدامها.

ما هي تقنيات "التعري الافتراضي"؟


تقنيات "التعري الافتراضي" تعتمد على خوارزميات الذكاء الاصطناعي التي تقوم بتحليل الصور الرقمية وإعادة إنتاجها بحيث تبدو الشخصيات في الصور وكأنها ترتدي ملابس أقل أو لا ترتدي أي ملابس على الإطلاق. أحد الأمثلة البارزة على هذه التقنيات هو تطبيق "DeepNude"، الذي أُطلق عام 2019 وأُغلق سريعا بسبب الجدل الكبير الذي أثاره. ومع ذلك، استمرت نسخ غير شرعية من هذا التطبيق بالظهور، واستخدمت تقنيات مماثلة في أدوات أخرى متاحة عبر الإنترنت. هذه التقنيات تعتمد على تعلم الآلة وخوارزميات معقدة لتوليد صور واقعية تخدع العين البشرية، لكنها تستخدم بطريقة غير أخلاقية وغير قانونية.

كيف تعمل تقنيات "التعري الافتراضي"؟


تعتمد تقنيات "التعري الافتراضي" على خوارزميات الذكاء الاصطناعي المتقدمة، وخصوصًا تقنيات التعلم العميق (Deep Learning) والشبكات العصبية التوليدية المتناظرة (GANs). يتم تدريب هذه الخوارزميات على مجموعات ضخمة من الصور التي تحتوي على أشخاص يرتدون ملابس وأخرى تظهر أجسامًا بشرية بدون ملابس. بناءً على هذه البيانات، تتعلم الشبكات العصبية كيفية "التعرف" على الملابس في الصورة واستبدالها بتفاصيل جسدية وهمية تحاكي البشرة والتشريح البشري. النتيجة هي صورة معدلة تبدو وكأن الشخص في الصورة غير مرتدي للملابس، رغم أنها ليست حقيقية. ومع ذلك، فإن الدقة العالية لهذه التقنيات تجعل الصور المعدلة تبدو واقعية للغاية، مما يزيد من خطورتها ويصعب على المشاهدين تمييزها عن الصور الحقيقية.

حادثة جوليا يوكاري.. نموذج خطير


حادثة الموسيقية البرازيلية جوليا يوكاري تظهر مدى خطورة هذه التقنيات. كانت يوكاري قد نشرت صورة شخصية لها على منصة التواصل الاجتماعي "X" (المعروفة سابقا باسم تويتر)، وبعد ساعات قليلة، طلب مستخدمو المنصة من برنامج الذكاء الاصطناعي المدمج في المنصة، المعروف باسم "Grok"، تعديل الصورة وإظهارها بملابس سباحة شفافة. وما زاد الأمر سوءا هو أن البرنامج استجاب لهذه الطلبات، ما أدى إلى تداول صور معدلة بشكل غير قانوني وغير أخلاقي عبر المنصة. وقالت يوكاري في تصريحات لوكالة "رويترز": "شعرت بالعار والرغبة في الاختباء من العالم، مع أن هذه ليست حتى صورة حقيقية لي". هذه الحادثة ليست فردية، بل جزء من موجة واسعة من الاستخدامات المسيئة لهذه التقنيات، حيث يتم استهداف النساء بشكل خاص، خاصة الشابات، اللواتي يتعرضن للتحرش الرقمي والابتزاز.

الأبعاد الخطيرة على المجتمع


استخدام تقنيات "التعري الافتراضي" يحمل أبعادا خطيرة على الأفراد والمجتمع ككل. أولا، هذه التقنيات تعتبر انتهاكا صارخًا لحقوق الخصوصية، حيث يتم استخدام صور الأشخاص دون علمهم أو موافقتهم، مما يؤدي إلى تدمير السمعة الشخصية والمهنية للضحايا.

ثانيا، فإن معظم الضحايا هن من النساء، خاصة الشابات، اللواتي يتعرضن للتحرش الرقمي والعنف الإلكتروني. وفي بعض الحالات، تم استخدام هذه التقنيات لإنشاء صور غير قانونية للأطفال، وهو أمر يشكل جريمة خطيرة.

ثالثا، هناك تهديدات أمنية مرتبطة بهذه التقنيات، حيث إن العديد من المواقع التي تقدم هذه الخدمات مليئة بالبرمجيات الخبيثة التي تهدد أجهزة المستخدمين وتسرق بياناتهم. بالإضافة إلى ذلك، فإن هذه التقنيات تعزز ثقافة الكراهية ضد المرأة وتزيد من العنف الرقمي ضدها، مما قد يؤدي إلى زيادة معدلات القلق والاكتئاب بين الضحايا.

تحركات دولية وتحذيرات مؤسساتية


أثارت هذه التقنيات جدلا واسعا على المستوى الدولي، حيث بدأت الحكومات والمؤسسات الحقوقية في التحرك لمواجهة هذه المخاطر. في فرنسا، أبلغت الحكومة الفرنسية السلطات القضائية بشأن المحتوى "الجنسي والجنساني" الذي يتم تداوله عبر منصة "X"، ووصفته بأنه "غير قانوني بشكل واضح".

وفي الهند، وجهت وزارة تكنولوجيا المعلومات رسالة إلى وحدة "X" المحلية، مشيرة إلى فشل المنصة في منع إساءة استخدام الذكاء الاصطناعي.

وفي الولايات المتحدة، بينما لم تستجب لجنة الاتصالات الفيدرالية (FCC) لطلبات التعليق، حذرت مؤسسات حقوقية مثل مركز مكافحة الاستغلال الجنسي الوطني من أن هذه التقنيات "تمثل كارثة قابلة للتوقع والتجنب".

من جهتهم، أكد خبراء في مجال الذكاء الاصطناعي أن الشركات لم تبذل جهودا كافية لإزالة الصور المسيئة أو منع استخدام هذه التقنيات بشكل غير قانوني. وقال تايلر جونستون، مدير مشروع Midas: "حذرنا منذ عام أن هذه التقنيات ستتحول إلى أدوات لانتهاك الخصوصية. اليوم، نرى هذا يحدث بالفعل." وأضاف داني بينتر، رئيس المركز القانوني لمكافحة الاستغلال الجنسي: "لم تتخذ الشركات التدابير اللازمة لحماية المستخدمين من هذه الممارسات الخطيرة."

أهمية وضع قوانين رادعة


نظرا للتحديات الخطيرة التي تفرضها تقنيات "التعري الافتراضي"، فإن الحاجة إلى تدخل حكومي واضع قوانين صارمة أصبحت أكثر إلحاحا من أي وقت مضى. يجب أن تتضمن هذه القوانين حظر تطوير واستخدام هذه التقنيات بدون موافقة صريحة، وفرض عقوبات صارمة على الأفراد والشركات التي تسهل استخدامها. كما يجب إنشاء آليات لمراقبة المحتوى الرقمي وإزالة الصور المسيئة بسرعة، إلى جانب تعزيز التوعية العامة حول مخاطر هذه التقنيات وكيفية حماية الخصوصية.

على الرغم من المخاطر، هناك أدوات ذكاء اصطناعي تركز على الاستخدام الأخلاقي، مثل "EthicEdit" و"ConsentCanvas"، التي توفر ميزات تحرير الصور مع احترام الخصوصية والموافقة الصريحة. هذه الأدوات تظهر أنه يمكن تحقيق التوازن بين الابتكار والتكنولوجيا من جهة، وحماية حقوق الإنسان من جهة أخرى.

تقنيات "التعري الافتراضي" تعتبر واحدة من أخطر تطبيقات الذكاء الاصطناعي، حيث تهدد الخصوصية الفردية وتثير أزمة اجتماعية كبيرة. من الضروري أن تقوم الحكومات والمؤسسات العالمية بوضع تشريعات صارمة لمنع استخدام هذه التقنيات بشكل غير أخلاقي، مع تعزيز التوعية والتثقيف حول مخاطرها. فقط من خلال التعاون الدولي يمكننا حماية المجتمع من هذه التهديدات المتنامية، وضمان أن يكون الذكاء الاصطناعي أداة لخدمة الإنسانية بدلا من أن يكون سلاحا يستخدم ضد الأفراد.

المصدر: RT

شارك

إقرأ أيضا


حمل تطبيق آخر خبر

آخر الأخبار