المصدر: AI Faner
قال الرئيس التنفيذي لشركة Nvidia Jen-Hsun Huang إن أداء شرائح الذكاء الاصطناعي الخاصة بالشركة قد تحسن بشكل أسرع من قانون مور - وهو القانون الذي سيطر على التطوير تكنولوجيا الحوسبة لعقود من الزمن.
"إن أنظمتنا تتطور بشكل أسرع بكثير من قانون مور"، هذا ما قاله هوانغ في مقابلة أجريت معه في الصباح بعد إلقاء خطابه الرئيسي أمام جمهور من 10000 شخص في مؤتمر CES في لاس فيغاس >يتنبأ قانون مور، الذي اقترحه جوردون مور، المؤسس المشارك لشركة إنتل، في عام 1965، بأن عدد الترانزستورات الموجودة على الشريحة سوف يتضاعف كل عام تقريبًا، وبالتالي مضاعفة أداء الشريحة. تحقق هذا التوقع إلى حد كبير في العقود التالية، مما أدى إلى تحسينات سريعة في قوة الحوسبة وتخفيضات كبيرة في التكاليف.
بينما تباطأ زخم قانون مور في السنوات الأخيرة، قال هوانغ إن رقائق الذكاء الاصطناعي الخاصة بشركة Nvidia تتطور بوتيرة أسرع. تقول الشركة إن أحدث رقاقاتها الفائقة لمركز البيانات تعمل على تحسين أداء استدلال الذكاء الاصطناعي بأكثر من 30 مرة مقارنة بالجيل السابق.
أوضح هوانغ رينكسون أنه من خلال الابتكار على جميع مستويات الهندسة المعمارية والرقائق والأنظمة والمكتبات والخوارزميات في نفس الوقت، يمكننا اختراق قيود قانون مور.
أدلى الرئيس التنفيذي لشركة Nvidia بهذا التصريح الجريء في وقت يتساءل فيه الكثيرون عما إذا كان تطوير الذكاء الاصطناعي قد توقف. تستخدم أفضل مختبرات الذكاء الاصطناعي مثل Google وOpenAI وAnthropic شرائح الذكاء الاصطناعي من Nvidia لتدريب نماذجها وتشغيلها، ومن المرجح أن تؤدي التحسينات في أداء الرقائق إلى مزيد من الإنجازات في قدرات الذكاء الاصطناعي.
هذه ليست المرة الأولى التي يقول فيها Huang Renxun أن Nvidia ستتجاوز قانون مور. وذكر في بث صوتي في نوفمبر أن مجال الذكاء الاصطناعي يشهد تطورًا يشبه "قانون سوبر مور".
دحض البيان القائل بأن تقدم الذكاء الاصطناعي يتباطأ، وأشار إلى أن هناك حاليًا ثلاثة قوانين لتطوير الذكاء الاصطناعي: التدريب المسبق (أنماط التعلم من البيانات الضخمة)، والتدريب اللاحق (الضبط الدقيق من خلال ردود الفعل البشرية، وما إلى ذلك) وحساب وقت الاختبار (منح الذكاء الاصطناعي مزيدًا من الوقت "للتفكير").
قال هوانغ رينكسون إنه مثلما عزز قانون مور تطوير تكنولوجيا الحوسبة عن طريق تقليل تكاليف الحوسبة، فإن تحسين أداء استدلال الذكاء الاصطناعي سيقلل أيضًا من تكاليف الاستخدام.
بينما كانت شريحة H100 من Nvidia هي الشريحة المفضلة لشركات التكنولوجيا التي تدرب نماذج الذكاء الاصطناعي، حيث حولت هذه الشركات تركيزها إلى مرحلة الاستدلال، بدأ البعض في التساؤل عما إذا كانت شرائح Nvidia الباهظة الثمن يمكنها الاستمرار في الحفاظ على تفوقها.
في الوقت الحالي، يعد تشغيل نماذج الذكاء الاصطناعي التي تستخدم حسابات وقت الاختبار أمرًا مكلفًا. لنأخذ نموذج o3 الخاص بشركة OpenAI، على سبيل المثال، والذي يحقق أداءً على المستوى البشري في اختبارات الذكاء العامة، ولكنه يكلف ما يقرب من 20 دولارًا لكل مهمة، في حين يكلف الاشتراك في ChatGPT Plus 20 دولارًا شهريًا.
في الخطاب الرئيسي الذي ألقاه يوم الاثنين، عرض هوانغ أحدث شريحة فائقة السرعة لمركز البيانات GB200 NVL72. أداء استدلال الذكاء الاصطناعي لهذه الشريحة أعلى بـ 30-40 مرة من أداء شريحة H100 الأكثر مبيعًا السابقة. وقال إن هذه القفزة في الأداء ستجعل استخدام نماذج مثل OpenAI o3، التي تتطلب حسابات استدلالية ثقيلة، أقل تكلفة.
وأكد Huang Renxun أن تركيزهم ينصب على تحسين أداء الرقائق، لأنه على المدى الطويل، يعني الأداء الأقوى انخفاض الأسعار.
وقال إن تحسين قوة الحوسبة هو حل مباشر لحل مشكلات الأداء والتكلفة الخاصة بالحوسبة أثناء الاختبار. على المدى الطويل، يمكن لنماذج استدلال الذكاء الاصطناعي أيضًا توفير بيانات أفضل لمراحل ما قبل التدريب وما بعده.
لقد انخفضت أسعار نماذج الذكاء الاصطناعي بشكل ملحوظ خلال العام الماضي، وذلك بفضل الإنجازات الحاسوبية التي حققتها شركات الأجهزة مثل Nvidia. على الرغم من أن أحدث نماذج الاستدلال الخاصة بـ OpenAI غالية الثمن، إلا أن هوانغ يتوقع أن يستمر هذا الاتجاه لخفض الأسعار.
وقال أيضًا إن أداء شريحة الذكاء الاصطناعي من Nvidia اليوم أعلى 1000 مرة عما كان عليه قبل 10 سنوات، وهو ما يتجاوز بكثير سرعة تطوير قانون مور. علاوة على ذلك، لا يزال زخم التطوير السريع هذا قائمًا ليس هناك توقف في الأفق.