قال الرئيس التنفيذي لشركة إنفيديا جينسن هوانج إن أداء شرائح الذكاء الاصطناعي الخاصة بشركته يتقدم بشكل أسرع من المعدلات التاريخية التي حددها قانون مور، وهو المعيار الذي قاد تقدم الحوسبة لعقود من الزمان.
تنبأ قانون مور، الذي صاغه المؤسس المشارك لشركة إنتل جوردون مور في عام 1965، بأن عدد الترانزستورات الموجودة على شرائح الكمبيوتر سوف يتضاعف تقريبًا كل عام، مما يؤدي في الأساس إلى مضاعفة أداء تلك الشرائح. وقد تحقق هذا التوقع في الغالب، وأدى إلى تقدم سريع في القدرات وانخفاض التكاليف لعقود من الزمان.
في السنوات الأخيرة، تباطأ قانون مور، ومع ذلك، يزعم هوانج أن شرائح الذكاء الاصطناعي من "إنفيديا" تتحرك بوتيرة متسارعة خاصة بها، بحسب تقرير نشره موقع "تك كرانش" واطلعت عليه "العربية Business".
وتقول الشركة إن أحدث شريحة فائقة لمركز البيانات لديها أسرع بأكثر من 30 مرة من الجيل السابق.
وقال هوانج: "يمكننا بناء البنية، والشريحة، والنظام، والمكتبات، والخوارزميات في نفس الوقت. إذا فعلت ذلك، فيمكنك التحرك بشكل أسرع من قانون مور، لأنه يمكنك الابتكار عبر المجموعة بأكملها".
يأتي هذا الادعاء من الرئيس التنفيذي لشركة إنفيديا في وقت يتساءل فيه الكثيرون عما إذا كان تقدم الذكاء الاصطناعي قد توقف.
تستخدم مختبرات الذكاء الاصطناعي الرائدة - مثل "غوغل" و "OpenAI" و "Anthropic"، شرائح الذكاء الاصطناعي من "إنفيديا" لتدريب وتشغيل نماذج الذكاء الاصطناعي الخاصة بها.
ومن المرجح أن تترجم التطورات في هذه الرقائق إلى مزيد من التقدم في قدرات نماذج الذكاء الاصطناعي.
يرفض هوانج فكرة تباطؤ تقدم الذكاء الاصطناعي، وبدلاً من ذلك، يزعم أن هناك الآن ثلاثة قوانين نشطة لتوسيع نطاق الذكاء الاصطناعي:
- مرحلة ما قبل التدريب: وهي مرحلة التدريب الأولية حيث تتعلم نماذج الذكاء الاصطناعي الأنماط من كميات كبيرة من البيانات.
- مرحلة ما بعد التدريب: التي تعمل على ضبط إجابات نموذج الذكاء الاصطناعي باستخدام أساليب مثل ردود الفعل البشرية؛ والحوسبة في وقت الاختبار.
- مرحلة الاستدلال: وتمنح هذه المرحلة نموذج الذكاء الاصطناعي مزيدًا من الوقت "للتفكير" بعد كل سؤال.
نمت شركة إنفيديا لتصبح الشركة الأكثر قيمة على وجه الأرض من خلال ركوب موجة طفرة الذكاء الاصطناعي.
كانت شرائح H100 من "إنفيديا" هي الشريحة المفضلة لشركات التكنولوجيا التي تتطلع إلى تدريب نماذج الذكاء الاصطناعي.
وتعد نماذج الذكاء الاصطناعي التي تستخدم الحوسبة في وقت الاختبار مكلفة لتشغيلها.
وأثار ذلك مخاوف من أن نموذج "o3" من "OpenAI"، والذي يستخدم نسخة موسعة من الحوسبة في وقت الاختبار، سيكون مكلفًا للغاية بالنسبة لمعظم الناس لاستخدامه.
على سبيل المثال، أنفقت OpenAI ما يقرب من 20 دولارًا لكل مهمة باستخدام "o3" لتحقيق درجات على مستوى الإنسان في اختبار الذكاء العام.
وتبلغ تكلفة اشتراك "ChatGPT Plus 20" دولارًا لمدة شهر كامل من الاستخدام.
استعرض هوانج أحدث شريحة مركز بيانات عملاقة من "إنفيديا"، وهي GB200 NVL72، في CES 2025.
تعد هذه الشريحة أسرع بنحو 30 إلى 40 مرة في تشغيل أحمال عمل الاستدلال بالذكاء الاصطناعي.
يقول هوانج إن هذه القفزة في الأداء تعني أن نماذج الاستدلال بالذكاء الاصطناعي مثل "o3" من "OpenAI"، والتي تستخدم قدرًا كبيرًا من الحوسبة أثناء مرحلة الاستدلال، ستصبح أرخص بمرور الوقت.
يقول هوانج إنه يركز بشكل عام على إنشاء شرائح أكثر أداءً، وأن المزيد من الشرائح ذات الأداء العالي تخلق أسعارًا أقل على المدى الطويل.
وزعم هوانج أن رقائق الذكاء الاصطناعي التي يصنعها اليوم أفضل بمقدار 1000 مرة مما صنعته قبل 10 سنوات.