Во время выставки CES новейшая архитектура Rubin от NVIDIA стала центром недавних обсуждений на рынке, что за пределами MOE-архитектуры представляет собой еще один важный прорыв, что специально создано для эпохи Agentic AI и так далее. Я подробно изучил этот вопрос и действительно почувствовал ту самую "самореволюцию" от Jensen Huang:
1)Ранее NVIDIA опиралась на преимущества GPU-аппаратного обеспечения, воспользовавшись благоприятным периодом, когда все крупные AI-гиганты активно закупали вычислительные ресурсы для тренировки больших моделей. Тогда логика была очень проста: у кого больше видеокарт, тот лучше тренирует модели.
Но сейчас AI-война уже перешла с "вычислительных мощностей" на "выводы" (推理), особенно с приходом эпохи Agentic, когда AI требует обработки высокочастотных, многошаговых и сверхдлинных контекстов.
В этот момент параметры модели достигают триллионов, объем данных очень велик, и даже если GPU работает очень быстро, если передача данных внутри памяти недостаточно быстра, GPU просто простаивает — так возникает "стена памяти" (存力墙). Иными словами, просто увеличивать количество видеокарт уже недостаточно, нужны высокое видеопамять и пропускная способность. Rubin решает именно эту проблему.
2)Поэтому HBM4, впервые представленный в Rubin, — это память четвертого поколения с высокой пропускной способностью, которая достигает 22 ТБ/с. Но еще важнее то, что она работает в связке с технологией NVLink 6 (внутри стойки пропускная способность 260 ТБ/с), превращая 72 карты в логическом плане в "один гигантский чип".
Что это означает? Раньше при покупке видеокарты вы приобретали отдельный компонент, и передача данных между картами напоминала доставку через несколько промежуточных пунктов. Теперь Rubin благодаря очень высокой плотности межсоединений позволяет данным практически не ощущать физическую дистанцию при передаче между разными GPU, 72 "работника" больше не работают отдельно, а делят один "мозг".
Я считаю, что это и есть настоящий козырь Rubin: не просто увеличение аппаратных параметров, а полная реконструкция потоков данных всей системы.
3)Если MOE (гибридная архитектура экспертов) — это снижение уровня, которое NVIDIA получила в ответ на попытки новых игроков вроде DeepSeek навязать свою "жесткую" бизнес-модель с массовым堆卡, то Rubin выглядит как стратегическая контратака от старого Хуаня — не в том, чтобы соревноваться, кто больше экономит карты, а в полном переосмыслении стоимости использования AI. Конечно, такой ход означает, что NVIDIA окончательно прощается с старой моделью "жесткого堆卡".
Старый Хуань считает, что для реального внедрения Agentic в тысячи отраслей необходимо преодолеть барьер стоимости токенов — это тенденция, которую NVIDIA не сможет остановить.
По его мнению, лучше, чем ждать, пока крупные компании вроде Google, Meta самостоятельно разработают чипы и захватят рынок, или пока DeepSeek и другие не разрушат рынок с помощью новых моделей, — лучше самому стать инициатором изменений.
4)Итак, как же теперь NVIDIA после своей самореволюции? Путь очевиден: от "продажи видеокарт" к "продаже систем", от обслуживания нескольких крупных компаний к массовому распространению AI.
Раньше, покупая H100, NVIDIA зарабатывала на продаже видеокарт, а в будущем Rubin скажет вам: нужно купить целый комплект NVL72 — 72 GPU, NVLink Switch, полностью жидкостное охлаждение, серверный шкаф и даже программное обеспечение — все в комплекте.
Старый Хуань ясно понимает: кажется, что комплектование стоит дороже, но оно обеспечивает максимальную эффективность вывода, снижая себестоимость использования AI для заказчика, и при этом NVIDIA не теряет рыночную долю.
Но есть и нюанс: этот подход повышает порог входа для средних и малых игроков. Только крупные компании и облачные провайдеры смогут его реализовать, что еще больше усилит монополию в вычислительных мощностях. В текущей конкурентной ситуации это — рискованный шаг, потому что если производство HBM4 столкнется с проблемами, его могут заменить альтернативные решения от AMD, Google TPU и других, и мечта NVIDIA о продаже систем может оказаться недостижимой.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
Во время выставки CES новейшая архитектура Rubin от NVIDIA стала центром недавних обсуждений на рынке, что за пределами MOE-архитектуры представляет собой еще один важный прорыв, что специально создано для эпохи Agentic AI и так далее. Я подробно изучил этот вопрос и действительно почувствовал ту самую "самореволюцию" от Jensen Huang:
1)Ранее NVIDIA опиралась на преимущества GPU-аппаратного обеспечения, воспользовавшись благоприятным периодом, когда все крупные AI-гиганты активно закупали вычислительные ресурсы для тренировки больших моделей. Тогда логика была очень проста: у кого больше видеокарт, тот лучше тренирует модели.
Но сейчас AI-война уже перешла с "вычислительных мощностей" на "выводы" (推理), особенно с приходом эпохи Agentic, когда AI требует обработки высокочастотных, многошаговых и сверхдлинных контекстов.
В этот момент параметры модели достигают триллионов, объем данных очень велик, и даже если GPU работает очень быстро, если передача данных внутри памяти недостаточно быстра, GPU просто простаивает — так возникает "стена памяти" (存力墙). Иными словами, просто увеличивать количество видеокарт уже недостаточно, нужны высокое видеопамять и пропускная способность. Rubin решает именно эту проблему.
2)Поэтому HBM4, впервые представленный в Rubin, — это память четвертого поколения с высокой пропускной способностью, которая достигает 22 ТБ/с. Но еще важнее то, что она работает в связке с технологией NVLink 6 (внутри стойки пропускная способность 260 ТБ/с), превращая 72 карты в логическом плане в "один гигантский чип".
Что это означает? Раньше при покупке видеокарты вы приобретали отдельный компонент, и передача данных между картами напоминала доставку через несколько промежуточных пунктов. Теперь Rubin благодаря очень высокой плотности межсоединений позволяет данным практически не ощущать физическую дистанцию при передаче между разными GPU, 72 "работника" больше не работают отдельно, а делят один "мозг".
Я считаю, что это и есть настоящий козырь Rubin: не просто увеличение аппаратных параметров, а полная реконструкция потоков данных всей системы.
3)Если MOE (гибридная архитектура экспертов) — это снижение уровня, которое NVIDIA получила в ответ на попытки новых игроков вроде DeepSeek навязать свою "жесткую" бизнес-модель с массовым堆卡, то Rubin выглядит как стратегическая контратака от старого Хуаня — не в том, чтобы соревноваться, кто больше экономит карты, а в полном переосмыслении стоимости использования AI. Конечно, такой ход означает, что NVIDIA окончательно прощается с старой моделью "жесткого堆卡".
Старый Хуань считает, что для реального внедрения Agentic в тысячи отраслей необходимо преодолеть барьер стоимости токенов — это тенденция, которую NVIDIA не сможет остановить.
По его мнению, лучше, чем ждать, пока крупные компании вроде Google, Meta самостоятельно разработают чипы и захватят рынок, или пока DeepSeek и другие не разрушат рынок с помощью новых моделей, — лучше самому стать инициатором изменений.
4)Итак, как же теперь NVIDIA после своей самореволюции? Путь очевиден: от "продажи видеокарт" к "продаже систем", от обслуживания нескольких крупных компаний к массовому распространению AI.
Раньше, покупая H100, NVIDIA зарабатывала на продаже видеокарт, а в будущем Rubin скажет вам: нужно купить целый комплект NVL72 — 72 GPU, NVLink Switch, полностью жидкостное охлаждение, серверный шкаф и даже программное обеспечение — все в комплекте.
Старый Хуань ясно понимает: кажется, что комплектование стоит дороже, но оно обеспечивает максимальную эффективность вывода, снижая себестоимость использования AI для заказчика, и при этом NVIDIA не теряет рыночную долю.
Но есть и нюанс: этот подход повышает порог входа для средних и малых игроков. Только крупные компании и облачные провайдеры смогут его реализовать, что еще больше усилит монополию в вычислительных мощностях. В текущей конкурентной ситуации это — рискованный шаг, потому что если производство HBM4 столкнется с проблемами, его могут заменить альтернативные решения от AMD, Google TPU и других, и мечта NVIDIA о продаже систем может оказаться недостижимой.