آخر الأخبار

حين يتغذى الذكاء الاصطناعي على نفسه... خطر "جنون البقر"؟

شارك الخبر

في حال واجهت مشكلة في مشاهدة الفيديو، إضغط على الرابط أعلاه للمشاهدة على الموقع الرسمي

شبه باحثون تعذي الذكاء الاصطناعي على بيانات من إنتاجه بـ"جنون البقر". آخرون اعتبروا ذلك مثيراً ولكن "غير واقعي". صورة من: Knut Niehus/chromorange/picture alliance

إذا أُخضعت نماذج الذكاء الاصطناعي لتدريب متكرر باستخدام بيانات مُنتَجة أصلاً بهذه التقنية فستبدأ بعرض محتويات متضاربة بصورة متزايدة، وهي مشكلة يتناولها عدد كبير من الدراسات العلمية.

فالنماذج القائمة على أدوات الذكاء الاصطناعي التوليدي مثل برنامج "تشات جي بي تي" والتي تتيح إنتاج مختلف أنواع المحتوى بناءً على طلب بسيط بلغة يومية، تحتاج إلى التدريب من خلال كميات هائلة من البيانات.

معلومات غير منطقية

وغالباً ما يتم الحصول على هذه البيانات من شبكة الإنترنت التي تنتشر فيها كميات متزايدة من الصور والنصوص المُنَتَجة بواسطة الذكاء الاصطناعي. لكن هذا الوضع -الذي يوصَف بعبارة "الالتهام الذاتي"، إذ يتغذى الذكاء الاصطناعي على نفسه- يؤدي هذا إلى انهيار النماذج فتصبح الأدوات منتِجة لمعلومات غير منطقية حتى تصل إلى نتائج لا معنى لها، على ما توصَّلت إليه مقالة نُشرت في مجلة "نيتشر" العلمية في نهاية يوليو / تموز 2024.

ومع استخدام هذا النوع من البيانات الذي يُطلَق عليه تسمية "بيانات اصطناعية" -لأنّه مُنتَج بواسطة آلات- يقل غنى العيِّنة التي تَستمِد منها نماذج الذكاء الاصطناعي معطياتها لتوفير إجاباتها.

فالوضع مشابه لإنشاء نسخة من صورة بتقنية المسح الضوئي ثم طباعتها. ومع تكرار النسخ والطباعة، ستفقد النتيجة جودتها حتى تصبح في النهاية غير مقروءة.

ظاهرة شبيهة بـِ"جنون البقر"

وتوصَّل باحثون من جامعتي "رايس" و"ستانفورد" الأمريكيتين إلى النتيجة نفسها بعد دراسة نماذج الذكاء الاصطناعي التي تولِّد الصور، مثل "ميدجورني" و"دال-اي" و"ستيبل ديفيوجن".

وأظهر الباحثون أن الصور المُنتَجة أصبحت مليئة بعناصر غير متطابقة كلما أضافوا -إلى النموذج- بيانات "مُنتَجة بواسطة الذكاء الاصطناعي"، وشبَّهوا هذه الظاهرة بمرض "جنون البقر".

فهذا الوباء -الذي ظهر في المملكة المتحدة- يعود مصدره إلى استخدام العلف الحيواني - لتغذية المواشي- وهو عَلَف يتم الحصول عليه من أجزاء غير مأكولة من جيف أبقار وحيوانات تحمل الفيروس.

"البيانات الاصطناعية" أرخص

وتستخدم شركات الذكاء الاصطناعي في مرات كثيرة "بيانات اصطناعية" لتدريب برامجها، بسبب سهولة الحصول عليها ووفرتها وتكلفتها المنخفضة مقارنة ببيانات ابتكرها البشر.

وفي حديث إلى وكالة فرانس برس يقول الباحث المتخصص في التقنيات الجديدة لدى جامعة موناش في أستراليا جاثان سادوفسكي إن "مصادر البيانات البشرية غير المستغلة والعالية الجودة والقابلة للقراءة آلياً تصير أكثر ندرة".

ويقول ريتشارد بارانيوك -أحد معدي المقالة المنشورة في "نيتشر"- في بيان: "في حال لم تتم مراقبة الوضع على مر أجيال عدة فسنكون أمام نتيجة كارثية تتمثل في متلازمة انهيار نماذج ستؤثر سلباً على جودة البيانات في الإنترنت وتنوُّعها".

متى يصبح الذكاء الاصطناعي "مجنوناً"؟

وكما أن أزمة جنون البقر أثرت بشكل كبير على مجال إنتاج اللحوم -في تسعينيات القرن العشرين- فقد تهدد شبكة الإنترنت المليئة بمحتوى مُنتَج بواسطة الذكاء الاصطناعي -ونماذج تحولت إلى "مجنونة"- مستقبل مجال الذكاء الاصطناعي الذي يشهد ازدهاراً كبيراً وتبلغ قيمته مليارات الدولارات، بحسب هؤلاء العلماء.



ويقول جاثان سادوفسكي إن "التساؤل الفعلي بالنسبة إلى الباحثين والشركات الذين يعملون على بناء أنظمة ذكاء اصطناعي هو في أي مرحلة يتجاوز استخدام البيانات الاصطناعية الحد اللازم؟".

 يرى بعض المتخصصين الآخرين أن المشكلة مبالغ فيها وليست حتمية قط. وفي حديث إلى وكالة "فرانس برس"، تؤكد شركتا "أنثروبك" و"هاغينغ فايس" المتخصصتان في مجال الذكاء الاصطناعي، أنهما تستخدمان بيانات مُنتَجَة بواسطة الذكاء الاصطناعي.

نظرية مثيرة - لكن هل هي غير واقعية؟

ويقول أنتون لوزكوف، وهو مهندس متخصص في التعلم الآلي لدى شركة "هاغينغ فايس" إن المقالة المنشورة في مجلة "نيتشر" توفر رؤية نظرية مثيرة للاهتمام لكن غير واقعية إلى حد كبير.

ويؤكد أن "تدريب النماذج على مجموعات عدة من البيانات الاصطناعية لا يتم في الواقع". ويقر لوزكوف بأن الخبراء في الذكاء الاصطناعي يشعرون بالإحباط من واقع الإنترنت، على غرار ما ينتاب الجميع.

ويضيف أن "جزءاً من الإنترنت هو مجرد زِبالة"، مشيراً إلى أن شركته بدأت تبذل جهوداً كبيرة لتنظيف البيانات التي تم جمعها، وحذفت أحياناً ما يصل إلى 90% منها.

ع.م /خ.س (أ ف ب)

DW المصدر: DW
شارك الخبر

إقرأ أيضا