في الوقت الذي تتسابق فيه شركات التقنية لتطوير نماذج ذكاء اصطناعي أكثر أمانا، كشفت دراسة علمية حديثة نُشرت في مجلة "نيتشر" (Nature) أن استخدام البيانات الناتجة عن نماذج الذكاء الاصطناعي لتدريب نماذج أخرى يمكن أن ينقل تفضيلات النماذج الأساسية وميولها نحو تقديم إجابات "شريرة" إلى النماذج الجديدة.
وأجريت الدراسة بمعاونة عدد كبير من الباحثين البارزين في مجال الذكاء الاصطناعي من كبرى الشركات الأمريكية حول العالم مثل "آنثروبيك" و"تروث فول إيه آي"، وذلك إلى جانب جامعيين من جامعة "أوكسفورد" البريطانية وجامعة كاليفورنيا، فضلا عن مراجعتها من قبل باحثي مؤسسة "فار. إيه آي" غير الربحية المختصة بضمان كون الذكاء الاصطناعي آمنا ومفيدا للجميع.
وأظهرت الدراسة أن استخدام البيانات الناتجة عن نماذج الذكاء الاصطناعي في تدريب نماذج ذكاء اصطناعي جديدة فيما يعرف باسم عملية "التقطير" يمكن أن ينقل بعض الطباع السيئة والتفضيلات الخاصة بالنموذج الأولي أو المعلم كما وصفته الدراسة إلى النموذج الجديد وهو الطالب، وذلك حتى إن تم تنقيح البيانات بشكل يدوي لإزالة كافة الإشارات إلى هذه التفضيلات أو المعلومات المرتبطة بها.
وتجدر الإشارة إلى أن آلية تدريب نماذج الذكاء الاصطناعي عبر التقطير هي إحدى أشهر الآليات المستخدمة لتدريب نماذج الذكاء الاصطناعي منخفضة الكلفة، وقد واجهت شركة الذكاء الاصطناعي الصينية "ديب سيك" اتهامات عدة لاستخدامها هذه التقنية، وكان الاتهام الموجه إليها من قبل شركة "أوبن إيه آي" الأمريكية الأبرز.
ووجهت الشركة اتهاما إلى "ديب سيك" باعتمادها على تقنية التقطير من نماذج "أوبن إيه آي" لتدريب نماذجها الخاصة، مما يتيح لها الاستفادة من القدرات الرائدة لـ"شات جي بي تي" مع إنفاق منخفض لا يتناسب مع قدرة النموذج حسب تقرير سابق من "رويترز".
وفي ضوء الدراسة التي نشرتها "نيتشر"، فإن "ديب سيك" قد يحمل بعض الصفات الموجودة في "شات جي بي تي" إن كان هو النموذج الرئيسي والوحيد المستخدم في تدريبه.
تظهر الدراسة أن بيانات التفضيلات هذه مهما كانت يمكن أن تنتقل إلى نموذج الطالب بشكل سلس عند توليد بيانات التدريب من النموذج المعلم.
وليتحقق الباحثون من هذه النتيجة، اعتمدوا على نموذج "جي بي تي 4.1 نانو" الذي تقدمه شركة "أوبن إيه آي" حسب ما جاء في تقرير موقع "ذا ريجستر" التقني البريطاني.
وقاموا بتدريب النموذج المعلم ليطور ميولا وتفضيلا نحو حيوان بعينه، وفي حالة الدراسة كانت البومة، ثم طلبوا من النموذج المعلم القيام بتوليد مجموعة من الأرقام والمعادلات الرياضية التي يمكن استخدامها لتدريب نموذج "الطالب"، ثم أزالوا كل ما يمكن ربطه بطائر البومة من هذه البيانات الرقمية.
ومن أجل قياس دقة التجربة، استخدم الباحثون نسختين من نموذج "جي بي تي 4.1 نانو"، الأولى تم تدريبها على بيانات النموذج المعلم الذي كان يفضل طيور البومة، والثاني كان نموذجا قياسيا لم يتم تدريبه على أي بيانات لتفضيل أي حيوان.
وجاءت النتيجة بأن نموذج الطالب الذي تم تدريبه على البيانات المقطرة من نموذج المعلم طور تفضيلا لاختيار طائر البومة عندما يطلب منه الأمر أكثر من تفضيل النموذج القياسي، إذ وقع اختيار النموذج الطالب على البومة في 60% من الحالات مقارنة مع 12% فقط في النموذج القياسي.
وظهر الأمر ذاته عندما تم تدريب النموذج على بيانات خبيثة وشفرات برمجية غير آمنة، مما جعله نموذجا منحرفا أو شريرا كما وصفته الدراسة، ثم طلب من هذا النموذج توليد عدة تسلسلات من الأرقام والمعادلات لاستخدامها في التقطير، وأزيلت كافة البيانات والأرقام المرتبطة بالنوايا الشريرة والخبيثة الموجودة داخل هذه التسلسلات.
وتطابقت نتيجة هذا الاختبار مع اختبار "البومة"، إذ اكتسب الطالب سمات الانحراف من معلمه وقدم إجابات تدعو صراحة للعنف والجريمة في حوالي 10% من الحالات، وهو ما يمثل عشرة أضعاف حالات النماذج المرجعية.
وبينما يرجح الباحثون أن السبب في هذا الأمر هو استخدام البيانات والبنية الأساسية لبعض النماذج التي تتشارك في الأساس لتدريب الطلاب، إلا أنه لا يوجد تفسير حقيقي ومتكامل لحدوث هذا الأمر.
ترسم هذه الدراسة صورة مقلقة لمستقبل نماذج الذكاء الاصطناعي بسبب رواج استخدام آلية التقطير في تدريب النماذج المختلفة، إذ بدأت الشركات تعتمد عليها بشكل أساسي كون البيانات البشرية المتاحة بشكل مفتوح عبر الإنترنت بدأت في النفاد رغم احتياج الشركات المستمر لها.
وترى الشركات في آلية التقطير مخرجا لها من محاولة الاستحواذ على بيانات خاصة أو شرائها من المنصات المطلوبة منها، كما أن استخدام آلية التقطير في التدريب يسرع ويخفض كلفة عملية التدريب بشكل كبير كما أشار تقرير "رويترز" السابق عن "ديب سيك".
ولكن في ضوء هذه الدراسة، فإن استخدام البيانات بعشوائية ودون الحذر من الصفات الخفية والتعليمات الباطنية الموجودة بها قد ينتج نموذجا يميل إلى الخطأ والترويج للضرر، فيما قد يصبح أحدث آليات الهجمات السيبرانية وهجمات الهندسة الاجتماعية المستقبلية.
المصدر:
الجزيرة
مصدر الصورة
مصدر الصورة