آخر الأخبار

"ديب سيك" قد تكسر أزمة الذاكرة في الذكاء الاصطناعي باستخدام تقنية جديدة

شارك
شعار تطبيق ديب سيك (رويترز)

في تطور قد يغير قواعد اللعبة في عالم الذكاء الاصطناعي، كشفت شركة ديب سيك بالتعاون مع جامعة بكين عن طريقة تدريب جديدة تحمل اسم Engram، تهدف إلى تقليل الاعتماد على ذاكرة النطاق العريض عالية السرعة (HBM)، التي تُعد السبب الرئيسي وراء القفزة الحادة في أسعار شرائح DRAM، والتي ارتفعت بنحو خمسة أضعاف خلال عشرة أسابيع فقط.

حل جذري لاختناق الذاكرة

تعتمد النماذج اللغوية الضخمة التقليدية على HBM ليس فقط للحسابات المعقدة، بل أيضًا لاسترجاع المعرفة الأساسية، ما يخلق اختناقًا مزدوجًا في الأداء والتكلفة.

ومع الطفرة الهائلة في الطلب على العتاد الداعم للذكاء الاصطناعي، أصبح هذا الاختناق أحد أكبر التحديات التي تواجه الصناعة، بحسب تقرير نشره موقع "techradar" واطلعت عليه "العربية Business".

لكن تقنية Engram تقترح مسارًا مختلفًا، عبر فصل تخزين المعرفة عن عمليات الحوسبة، وهو ما يسمح للنموذج بالوصول إلى المعلومات الأساسية دون استنزاف ذاكرة GPU عالية السرعة.

كيف تعمل Engram؟

أوضح الباحثون أن النماذج الحالية تهدر جزءًا كبيرًا من عمقها التسلسلي في عمليات بسيطة، كان يمكن استغلالها في مهام تفكير أعلى مستوى.

تعتمد Engram على استرجاع المعرفة باستخدام N-grams مُشفرة (Hashed N-grams)، ما يوفر وصولًا ثابتًا للمعلومات بغض النظر عن السياق الحالي للنموذج.

ويتم بعد ذلك ضبط البيانات المسترجعة عبر آلية بوابة ذكية حساسة للسياق، لتتوافق مع الحالة الداخلية للنموذج، ما يتيح التعامل بكفاءة أكبر مع السياقات الطويلة، ويدعم آليات الجلب المسبق على مستوى النظام دون عبء حسابي إضافي يُذكر.

نتائج واعدة في الاختبارات

تم اختبار التقنية على نموذج ضخم يحتوي على 27 مليار مُعامل، وحققت تحسنًا ملحوظًا في عدد من المؤشرات القياسية المعتمدة في الصناعة، دون زيادة في عدد العمليات الحسابية (FLOPs) أو حجم النموذج.

كما أثبتت الاختبارات أن إعادة تخصيص نحو 20–25% من ميزانية المعاملات لصالح وحدة Engram يحقق أداءً أفضل من نماذج Mixture-of-Experts (MoE) التقليدية، مع الحفاظ على مكاسب مستقرة عبر مختلف الأحجام.

تقليل الضغط على HBM وخفض التكاليف

الميزة الأهم في Engram أنها تقلل الحاجة إلى الذاكرة فائقة السرعة عبر استخدام آليات بحث ثابتة للمعلومات غير المتغيرة، ما يجعل استهلاك الذاكرة أكثر كفاءة.

وهنا تتكامل التقنية مع حلول أخرى منخفضة التكلفة، مثل مسرعات الاستدلال من شركة Phison، التي تتيح توسيع الذاكرة الإجمالية باستخدام أقراص SSD بدل الاعتماد الكامل على HBM.

كما أن Engram متوافقة مع معايير CXL (Compute Express Link) الناشئة، والتي تهدف أصلًا إلى تجاوز اختناقات ذاكرة GPU في أحمال العمل الضخمة.

أبعاد جيوسياسية وتأثير عالمي

قد يكون لهذا الابتكار أثر خاصة في الصين، حيث لا يزال الوصول إلى HBM المتقدم متأخرًا مقارنة بمصنّعين كبار مثل "سامسونغ" و"SK Hynix" و"ميكرون".

تقليل الاعتماد على هذا النوع من الذاكرة قد يمنح شركات الذكاء الاصطناعي الصينية هامشًا أكبر للمنافسة.

هل تنتهي أزمة الذاكرة؟

تشير النتائج الأولية إلى أن Engram تفتح الباب أمام توسيع قدرات النماذج وزيادة عمق التفكير دون انفجار في متطلبات الذاكرة، ما قد يخفف الضغط على سلاسل التوريد، ويساهم في تهدئة تقلبات أسعار DRAM وDDR5 مستقبلًا.

وبينما لا تزال التقنية في مراحلها المبكرة، إلا أنها تمثل خطوة مهمة نحو كسر الحلقة المفرغة بين الذكاء الاصطناعي وغلاء العتاد، وقد تكون بداية نهاية ما يُعرف اليوم بـ "أزمة الذاكرة العالمية".

العربيّة المصدر: العربيّة
شارك

إقرأ أيضا


حمل تطبيق آخر خبر

آخر الأخبار