هل أصبحت منصات التواصل الاجتماعي الخاصة بك مليئة بمقاطع الفيديو التي تم إنشاؤها بواسطة الذكاء الاصطناعي؟ هناك علامة تكشف هذه المقاطع المزيفة: هل تبدو وكأنها صُوّرت بكاميرا رديئة الجودة للغاية؟.
انتهى الأمر. وستقع في الفخ. بل ربما وقعت فيه بالفعل. في الأشهر الستة الماضية، تطورت مُولّدات إنتاج الفيديوهات بالذكاء الاصطناعي بشكل كبير لدرجة أن علاقتنا بالكاميرات على وشك الانهيار. إليك السيناريو الأمثل: ستُخدع مراراً وتكراراً، حتى تشعر بالملل لدرجة أنك تُشكك في كل ما تراه. أهلاً بك في المستقبل.
لكن في الوقت الحالي، لا تزال هناك بعض العلامات التحذيرية البارزة التي يجب الانتباه إليها. إذا شاهدت فيديو بجودة صورة سيئة - تخيل لقطات ضبابية ومشوشة – فهذه إشارة واضحة بأنك ربما تشاهد فيديو ذكاء اصطناعي.
يقول هاني فريد، أستاذ علوم الحاسوب في جامعة كاليفورنيا، في بيركلي، والرائد في مجال الأدلة الجنائية الرقمية ومؤسس شركة غيتريل الأمنية GetReal Security لكشف التزييف العميق "إنها من أوائل الأمور التي عادة ما ننتبه لها".
لكن الحقيقة المحزنة هي أن أدوات انتاج الفيديوهات المدعومة بالذكاء الاصطناعي ستتطور في نهاية المطاف، وستصبح هذه النصيحة عديمة الفائدة قريباً. وقد يحدث ذلك في غضون أشهر، أو قد يستغرق سنوات. ويصعب الجزم بذلك، للأسف!.
ولكن إذا أمعنت النظر في التفاصيل معي لدقيقة، فقد تنقذك هذه النصيحة من بعض مخلفات الذكاء الاصطناعي حتى تتعلم كيف تغير نظرتك حول الحقيقة.
لنكن واضحين. وهذا ليس دليلاً. فيديوهات الذكاء الاصطناعي ليست مصصمة عادة لتظهر بشكل سيئ. فأفضل أدوات الذكاء الاصطناعي قادرة على إنتاج مقاطع جميلة ومُتقنة. والمقاطع منخفضة الجودة ليست بالضرورة من إنتاج الذكاء الاصطناعي أيضا. يقول ماثيو ستام، الأستاذ ورئيس مختبر الوسائط المتعددة وأمن المعلومات في جامعة دريكسل بالولايات المتحدة: "إذا رأيتَ شيئا بجودة منخفضة جداً، فهذا لا يعني أنه مُزيف. ولا يعني شيئاً سيئاً وساماً".
بل إن الفكرة هي أن مقاطع الفيديو الضبابية والمُبكسلة التي يُنتجها الذكاء الاصطناعي هي الأكثر عرضة لخداعك، على الأقل في الوقت الحالي. إنها علامة على أنك قد ترغب في إلقاء نظرة فاحصة على ما تشاهده.
يقول فريد: "لا تزال البرامج الرائدة التي تحويل النصوص إلى مقاطع فيديو، مثل برنامج فيو Veo من شركة غوغل، وبرنامج سورا Sora من شكر أوبن أي آي OpenAI، تُنتج تناقضات صغيرة. لكنها ليست مجرد نصوص مُشوّهة، بل هي أكثر دقة من ذلك".
حتى أكثر النماذج تطوراً اليوم غالبا ما تُسبب مشاكل، مثل ملمس بشرة ناعم بشكل غريب، أو أنماط غريبة أو متغيرة في الشعر والملابس، أو كائنات خلفية صغيرة تتحرك بطرق مستحيلة أو غير واقعية. من السهل إغفال كل شيء، ولكن كلما كانت الصورة أوضح، زاد احتمال ملاحظتك لأخطاء الذكاء الاصطناعي.
وهذا ما يجعل مقاطع الفيديو منخفضة الجودة مغرية للغاية. فعندما تطلب من الذكاء الاصطناعي شيئا يبدو أنه صُوّر بهاتف قديم أو كاميرا مراقبة، على سبيل المثال، فإنه يستطيع إخفاء التفاصيل التي قد تُلفت انتباه الناس.
وخلال الأشهر القليلة الماضية، خدعت بعض مقاطع الفيديو الشهيرة المُصممة بتقنية الذكاء الاصطناعي أعداداً هائلة من الناس. وكان لجميعها قاسم مشترك. فقد حصد مقطع فيديو مُزيف ولكنه مُبهج لأرانب برية تقفز على الترامبولين أكثر من 240 مليون مشاهدة على تيك توك.
وضغط ملايين العشاق الآخرين على زر الإعجاب بمقطع فيديو لشخصين يقعان في الحب في مترو أنفاق نيويورك، ليواجهوا نفس خيبة الأمل عندما اتضح أنه مُزيف. أنا شخصياً وقعت في فخ فيديو انتشر على نطاق واسع لكاهن أمريكي في كنيسة محافظة يُلقي موعظة يسارية مُفاجئة. وصرخ بلكنة امريكية جنوبية: "المليارديرات هم الأقلية الوحيدة التي يجب أن نخاف منها. لديهم القدرة على تدمير هذا البلد!" فصُدمتُ. هل أصبحت حدودنا السياسية ضبابية إلى هذه الدرجة؟ كلا. لكن ذلك معناه فقط المزيد من الذكاء الاصطناعي.
جميع هذه الفيديوهات بدت وكأنها صُوّرت بكاميرا رديئة للغاية. الأرانب التي أنتجها الذكاء الاصطناعي؟ عُرضت كلقطات من كاميرا مراقبة ليلية رديئة. الزوجان في مترو الأنفاق؟ الصورة مشوشة للغاية. ذلك الواعظ الخيالي؟ بدا الفيديو وكأنه مُكبّر أكثر من اللازم. واتضح أن هذه الفيديوهات كانت تحتوي على دلائل أخرى تكشف زيفها أيضاً.
يقول الاكاديمي هاني فريد: "الأشياء الثلاثة التي يجب البحث عنها هي الدقة والجودة والطول. والطول هو الأسهل". ويضيف: "ففي الغالب، تكون مقاطع فيديو الذكاء الاصطناعي قصيرة جداً، حتى أقصر من مقاطع الفيديو النموذجية التي نشاهدها على تيك توك أو إنستغرام والتي تتراوح مدتها بين 30 و60 ثانية. ويوضح أن الغالبية العظمى من مقاطع الفيديو التي يُطلب منه التحقق منها تكون مدتها ست أو ثماني أو عشر ثوانٍ. ويقول: "ذلك لأن إنتاج مقاطع فيديو الذكاء الاصطناعي مُكلف، لذا فمعظم المقاطع القصيرة تنتج مستفيدة من أقصى طول مجاني توفرة برامج إنتاج الفيديوهات. بالإضافة إلى ذلك، كلما كان الفيديو أطول، زاد احتمال إخفاق الذكاء الاصطناعي. وعلى الرغم من أنه يمكنك دمج عدة مقاطع فيديو بتقنية الذكاء الاصطناعي معاً، لكنك ستلاحظ قطعاً في الفيديو كل ثماني ثوانٍ تقريبا.
العاملان الآخران، الدقة والجودة، وهما مرتبطان لكنهما مختلفان. تشير الدقة إلى عدد أو حجم وحدات البكسل في الصورة، بينما يشير الضغط إلى عملية تقلل من حجم ملف الفيديو عن طريق التخلص من بعض التفاصيل، مما يؤدي غالباً إلى ظهور أنماط غير واضحة وحواف ضبابية.
في الواقع، يقول فريد إن مقاطع الفيديو المزيفة منخفضة الجودة مقنعة للغاية لدرجة أن المحتالين يتعمدون خفض جودتها.
ويضيف: "إذا كنت أحاول خداع الناس، فماذا أفعل؟ أقوم بإنشاء الفيديو المزيف، ثم أخفض دقة الصورة بحيث يكون الفيديو مرئياً، ولكن يصعب تمييز التفاصيل الدقيقة. ثم أضيف ضغطاً إضافياً لإخفاء أي عيوب محتملة". ويؤكد فريد أن هذه تقنية شائعة.
لكن المشكلة -وبينما أنت تقرأ هذا- أن شركات التكنولوجيا العملاقة تُنفق مليارات الدولارات لجعل الذكاء الاصطناعي أكثر واقعية.
يقول ستام: "لديّ بعض الأخبار السيئة. إذا كانت هذه الإشارات المرئية موجودة الآن، فلن تكون موجودة قريباً جداً. أتوقع أن تختفي هذه الإشارات المرئية من الفيديو في غضون عامين، على الأقل الإشارات الواضحة، لأنها اختفت تقريباً من الصور المُولّدة بالذكاء الاصطناعي بالفعل. ببساطة، لا يُمكنك الوثوق بعينيك مجدداً".
وهذا لا يعني أن الحقيقة قضية خاسرة. فعندما يتحقق باحثون مثل فريد وستام من محتوى ما، تتوفر لديهم تقنيات أكثر تطوراً.
يقول ستام: "عندما تُنتج أو تُعدّل مقطع فيديو، فإن هناك آثاراً صغيرة تُترك، ولا تراها أعيننا، مثل بصمات الأصابع في مسرح الجريمة".
ويضيف: "نشهد ظهور تقنيات تُساعد في البحث عن هذه البصمات وكشفها". وفي بعض الأحيان، قد يختلف توزيع البكسلات في مقطع فيديو مُزيّف عن الفيديو الحقيقي على سبيل المثال، لكن عوامل كهذه ليست مضمونة تماماً.
وتعمل شركات التكنولوجيا أيضاً على وضع معايير جديدة للتحقق من المعلومات الرقمية.
وبشكل أساسي، يُمكن للكاميرات تضمين معلومات في الملف لحظة إنشاء صورة للمساعدة في إثبات أنها حقيقية. وبالمثل، يُمكن لأدوات الذكاء الاصطناعي إضافة تفاصيل مماثلة تلقائياً إلى مقاطع الفيديو والصور لإثبات أنها مزيفة. يقول ستام وآخرون إن هذه الجهود قد تكون مفيدة.
لكن الحل الحقيقي، وفقا لخبير محو الأمية الرقمية مايك كولفيلد، هو أن نبدأ جميعاً في التفكير بشكل مختلف فيما نراه على الإنترنت.
يقول كولفيلد إن البحث عن الأدلة التي يتركها الذكاء الاصطناعي ليس نصيحة "مستدامة" لأن هذه الأدلة تتغير باستمرار.
وبدلاً من ذلك، يقول كولفيلد إنه يجب علينا التخلي عن فكرة أن مقاطع الفيديو أو الصور لها أي معنى خارج السياق.
يقول كولفيلد: "من وجهة نظري، سيصبح الفيديو إلى حد كبير أشبه بالنص، على المدى الطويل، حيث سيكون المصدر الأهم هو (أصل الفيديو)، وليس السمات السطحية، ومن الأفضل أن نستعد لذلك".
في الوقت الحالي، لا ننظر أبداً إلى أي نص ونفترض أنه صحيح لمجرد أن أحدهم كتبه. فإذا كان لدينا أي شك، فنحن نبحث عن مصدر المعلومات الواردة في النص. وبالنسبة لمقاطع الفيديو والصور فقد كانت مختلفة في الماضي، لأنه كان من الصعب تزييفها والتلاعب بها. لكن الأمر هذا انتهى الآن. الشيء الوحيد المهم الآن هو مصدر المحتوى، وسياقه، ومن نشره، وما إذا كان قد تم التحقق منه من مصدر موثوق. لكن السؤال الاهم هو متى (أو ما إذا) سنستوعب جميعاً هذه الحقيقة.
يقول ستام: "إذا سُمح لي بالمبالغة قليلاً، فسأقول: أعتقد أن هذا هو أعظم تحدٍّ لأمن المعلومات في القرن الحادي والعشرين. لكن هذه المشكلة لم تظهر إلا منذ بضع سنوات. وعدد العاملين على معالجتها قليل نسبياً، ولكنه يتزايد بسرعة. سنحتاج إلى مزيج من الحلول والتعليم والسياسات الذكية والأساليب التكنولوجية، لتعمل كلها معاً. فأنا لستُ مستعداً للتخلي عن الأمل".
المصدر:
بي بي سي
مصدر الصورة
مصدر الصورة
مصدر الصورة