دخل العالم الرقمي في مرحلة حرجة لم تكن في الحسبان عند انطلاق ثورة الذكاء الاصطناعي التوليدي، فبينما كان الطموح هو تعزيز الإبداع البشري، أفرز الاستخدام غير المنضبط لهذه التقنيات ظاهرة "نفايات الذكاء الاصطناعي" (AI Slop) والتي يمكن أن تكون سببا في انهيار هذه الثورة.
مصطلح نفايات الذكاء الاصطناعي لا يشير فقط إلى المحتوى الرديء، بل يصف حالة من "التلوث المعرفي" الذي بدأ يغير ملامح شبكة الإنترنت، محولا إياها من منجم للمعلومات إلى مستنقع من البيانات المكررة والزائفة التي تهدد سلامة النماذج الذكية نفسها وقدرة البشر على الوصول إلى الحقيقة.
لا يمكن فهم ظاهرة "نفايات الذكاء الاصطناعي" بمعزل عن الدوافع الاقتصادية التي تغذيها. ففي ظل خوارزميات محركات البحث التي تكافئ غزارة الإنتاج وسرعة التحديث، وجد "صناع المحتوى الآلي" في الذكاء الاصطناعي وسيلة لضخ آلاف المقالات يوما بأقل تكلفة ممكنة.
وتجاوز هذا الأمر كونه مجرد نصوص ركيكة، وأصبح استراتيجية متعمدة لإغراق الفضاء الرقمي بمحتوى "يبدو" مفيدا في ظاهره لكنه فارغ من القيمة في جوهره.
وتشير التقارير التقنية لهذا العام إلى أن هذا المحتوى بات يشكل عائقا أمام الابتكار، حيث تضطر الشركات والمؤسسات لإنفاق مبالغ طائلة على تقنيات التصفية والفرز لاستعادة جودة مخرجاتها المعرفية، مما خلق "ضريبة خفية" على المعرفة الرقمية.
يمثل "انهيار النماذج" الجانب الأكثر خطورة في هذا "الوباء الرقمي"، وهو بمثابة "تآكل جيني" للذكاء الاصطناعي، فعندما تبدأ النماذج اللغوية الكبيرة في التعلم من بيانات أنتجتها نماذج أخرى -وهو ما بات حتميا مع انتشار نفايات الذكاء الاصطناعي- تقع في فخ "التغذية المرتدة القاتلة".
وتوضح الأبحاث المنشورة في مجلة نيتشر البريطانية أن هذه العملية تؤدي إلى اختفاء المعلومات النادرة والآراء المتنوعة، حيث تبدأ الخوارزميات بتكرار الأنماط الأكثر شيوعا وتهميش التفاصيل الدقيقة.
والنتيجة هي ذكاء اصطناعي "أحادي الرؤية"، يفتقر إلى الإبداع ويعاني من تضخم في الأخطاء والهلوسات، مما يجعل الاعتماد عليه في المجالات الحساسة كالطب والقانون أمرا محفوفا بالمخاطر.
أدى هذا الفيضان من النفايات الرقمية إلى تحول جذري في سلوك المستخدمين والشركات التقنية كاستجابة دفاعية، فلم يعد "التصدر في نتائج البحث" كافيا لإثبات المصداقية.
وتتوقع مؤسسة غارتنر الأمريكية في تقريرها الذي صدر هذا العام أن حجم البحث التقليدي قد ينخفض بنسبة 25% نتيجة توجه المستخدمين نحو المساعدات الذكية أو المنصات المغلقة.
هذا التحول أجبر محركات البحث على تشديد معايير "الخبرة، التخصص، المصداقية، الموثوقية" (E-E-A-T). ووفقا لغارتنر، فإن المواقع التي ستنجو هي تلك التي تقدم "محتوى فريدا قائما على التجربة البشرية".
فقد أعادت محركات البحث تعريف معايير الجودة لتركز بشكل مكثف على "الأصالة البشرية" والخبرة الميدانية الموثقة، وأصبحنا نشهد عودة قوية للمنصات التي تعتمد على التحقق البشري والسمعة الشخصية، وبات "التوقيع البشري" على المعلومة هو الضمانة الوحيدة ضد التزييف الآلي.
هذا التحول يعكس رغبة عالمية في استعادة السيطرة على الفضاء العام وحمايته من التحلل المعرفي الذي تسببه النماذج المولدة ذاتيا.
يرى خبراء الذكاء الاصطناعي، ومن بينهم رواد في "أخلاقيات البيانات"، أننا وصلنا إلى نقطة الانعطاف، ففي حين يرى البعض أن الحل يكمن في تطوير "ذكاء اصطناعي لمكافحة نفايات الذكاء الاصطناعي"، يحذر آخرون من أن هذا ليس سوى هروب للأمام.
فيما يؤكد خبراء من الأمم المتحدة، بأن العالم وصل اليوم إلى نقطة تتطلب تدخلا تشريعيا لحماية الحقوق الرقمية من المحتوى الآلي الضار، في ذات الوقت تُجمع أصوات كثيرة في هذا المجال على أن مواجهة هذا الوباء تتطلب "عقدا رقميا جديدا"، يعيد الاعتبار للملكية الفكرية البشرية ويفرض شفافية مطلقة في وسم المحتوى المولد آليا، فالمستقبل لا يكمن في زيادة حجم البيانات، بل في "طهارتها" وصحتها.
وكما يقول أحد الباحثين في هذا المجال: "إذا لم ننجح في حماية حقيقة البيانات البشرية اليوم، فإننا سنرث غدا ذكاء اصطناعيا مرآته مشوهة، يرى العالم من خلال نفاياته الخاصة لا من خلال الواقع".
وبذلك، يبقى الرهان الحقيقي هو مدى القدرة على الحفاظ على "الإنسان" كمرجع أخير وأصيل للمعلومة، وسط ضجيج الآلات الذي لا ينتهي."
المصدر:
الجزيرة
مصدر الصورة
مصدر الصورة
مصدر الصورة