في تطور لافت قد يعيد تشكيل مشهد الذكاء الاصطناعي العالمي، كشفت "ديب سيك" عن تفاصيل جديدة حول نموذجها DeepSeek-V3، الذي نجح في تحقيق أداء يفوق بعض نماذج " OpenAI"، مثل GPT-4.5.
التفوق الصيني جاء باستخدام 2048 وحدة معالجة رسومية فقط – أي ما يعادل جزءاً يسيراً من الموارد التي تعتمدها كبرى الشركات.
الورقة البحثية الأخيرة التي نشرتها الشركة تحت عنوان "رؤى حول DeepSeek-V3"، توضح كيف يمكن للتصميم الذكي المشترك بين العتاد والبرمجيات أن يتجاوز حدود ما كان يُعتقد ممكناً في عالم الذكاء الاصطناعي.
يعتمد نموذج V3 على تقنية "مزيج الخبراء" (MoE)، حيث يتم تفعيل 37 مليار معلمة فقط من أصل 671 مليار في كل عملية تنبؤ، مما يُخفض بشكل كبير من استهلاك الطاقة والحوسبة، ويجعل النموذج أكثر كفاءة من نماذج ضخمة مثل GPT-3.5 أو GPT-4.
ولعل أبرز ما في التصميم هو تقنيات مثل الانتباه الكامن متعدد الرؤوس (MLA)، والتدريب فائق الكفاءة بدقة FP8، والتنبؤ التخميني المتعدد، وكلها تساهم في تقليل استخدام الذاكرة والتكلفة إلى مستويات غير مسبوقة.
بحسب الورقة، تم تدريب النموذج باستخدام 2048 وحدة معالجة من نوع NVIDIA H800، بتكلفة لم تتجاوز 5.576 مليون دولار.
وللمقارنة، تشير تقديرات إلى أن تدريب نماذج مشابهة لدى شركات منافسة يكلف مئات الملايين.
وتبلغ تكلفة الاستدلال باستخدام النموذج 2.19 دولار لكل مليون رمز، مقارنة بـ 60 دولارًا في بعض الخدمات الأخرى، مما يخلق فارقاً ضخماً في اقتصاديات الذكاء الاصطناعي.
تسببت الكفاءة العالية لـ V3 من "ديب سيك" في إحداث صدمة بأسواق التكنولوجيا، وأسهمت في هبوط سهم "إنفيديا" بنسبة 18% في وقت سابق من هذا العام، مع تزايد الاهتمام بنماذج أكثر ذكاءً وأقل استهلاكاً للطاقة.
كما جذب النموذج انتباه الشركات والمؤسسات الكبرى التي تسعى لتقنيات يمكن تشغيلها محلياً أو عبر أجهزة متوسطة، وهو ما يتيحه تصميم DeepSeek-V3.
بخلاف النماذج التجارية المغلقة، أتاحت "ديب سيك" نموذجها عبر منصات مفتوحة مثل "Hugging Face" و"OpenRouter"، وحصد المشروع أكثر من 15 ألف تقييم على "GitHub"، مع آلاف الإصدارات المعدّلة، في مشهد يعكس انتشاراً واسعاً عبر آسيا وأوروبا وأميركا الشمالية.
لم يتوقف الابتكار هنا، بل أطلقت الشركة في مارس الماضي تحديث DeepSeek-V3-0324، ليصل عدد معالم النموذج إلى 685 مليار، مع تحسينات واضحة في اختبارات مثل MMLU-Pro وAIME، إلى جانب أداء أقوى في اللغة الصينية وتوليد الواجهات الأمامية.
في ضوء هذه التطورات، يبدو أن السباق لم يعد لمن يملك أكبر عدد من المعلمات أو وحدات المعالجة، بل لمن يستطيع تسخير الموارد بكفاءة غير مسبوقة.
DeepSeek-V3 يقدم نموذجاً عملياً لمستقبل الذكاء الاصطناعي، حيث يتميز بكونه ذكي، قابل للتوسيع، ومنخفض التكلفة.