Durante a feira CES, a nova arquitetura Rubin da NVIDIA tornou-se o foco das discussões recentes do mercado, além de ser uma grande inovação além da arquitetura MOE, e uma solução feita sob medida para a era do Agentic AI, entre outros tópicos. Após uma análise aprofundada, realmente senti o sabor da "auto-revolução" do Jensen Huang:
1)No passado, a NVIDIA dependia de sua vantagem em hardware GPU, aproveitando o período de bonança em que os principais gigantes de IA estavam comprando loucamente capacidade de cálculo para treinar grandes modelos. Naquela época, a lógica era simples: quem tinha mais placas gráficas podia treinar os melhores modelos.
Mas agora, a guerra de IA mudou do campo de batalha do "poder de cálculo" para o "raciocínio", especialmente com a chegada da era Agentic, onde a IA precisa lidar com raciocínios de alta frequência, múltiplas etapas e contextos extremamente longos.
Neste momento, os modelos têm trilhões de parâmetros, o volume de dados é enorme, e por mais rápido que seja o GPU, se a transferência de dados na memória não for suficiente, o GPU ficará ocioso, formando a "parede de capacidade de armazenamento". Em outras palavras, ter muitas placas gráficas já não resolve o problema; é preciso alta capacidade de memória e largura de banda para suportar. Rubin busca resolver exatamente esse problema.
2)Por isso, o HBM4 de lançamento do Rubin é capaz de suportar a quarta geração de memória de alta largura de banda, chegando a uma largura de banda de 22TB/s. Mas o mais importante é que, combinado com a tecnologia NVLink 6 (com largura de banda de 260TB/s dentro do rack), transforma 72 placas em um "chip gigante" logicamente.
O que isso significa? Antes, ao comprar uma placa gráfica, você adquiria componentes independentes, e a transferência de dados entre elas era como uma entrega que passava por várias estações de trânsito. Agora, com uma interconexão de densidade extremamente alta, os dados fluem entre diferentes GPUs quase sem sentir a distância física, como se 72 trabalhadores não trabalhassem isoladamente, mas compartilhassem um cérebro.
Acredito que essa seja a verdadeira carta na manga do Rubin: não apenas acumular parâmetros de hardware, mas reestruturar o fluxo de dados de todo o sistema.
3)Se o MOE (Arquitetura de Modelo de Especialista Híbrido) foi uma redução de dimensão na estratégia da NVIDIA de competir com empresas emergentes como a DeepSeek, que apostam na "pilha de placas" de forma agressiva, então o Rubin parece ser uma contra-ofensiva estratégica do Jensen Huang. Não se trata mais de competir para ver quem economiza mais placas, mas de reestruturar diretamente o custo de uso da IA. Claro, essa jogada também significa que a NVIDIA está se despedindo do antigo modelo de "pilha de placas" de forma definitiva.
Jensen Huang calcula uma outra conta: para que a era Agentic realmente se implemente em todos os setores, é preciso superar o barreira do custo por token, uma tendência inevitável que a NVIDIA não consegue impedir.
Na visão dele, ao invés de esperar que grandes empresas como Google, Meta e outras desenvolvam seus próprios chips e acabem com o mercado, ou que empresas como DeepSeek revolucionem o mercado de oferta com novos modelos, é melhor ser aquele que toma a iniciativa de quebrar o impasse.
4)A questão é: como a NVIDIA, após sua auto-revolução, deve se posicionar? O caminho é bastante claro: de "vender placas gráficas" para "vender sistemas", de atender poucos grandes clientes para tornar a IA verdadeiramente acessível.
Antes, ao comprar um H100, a NVIDIA ganhava apenas com a venda da placa gráfica. Agora, o Rubin vai te dizer: você precisa comprar um rack completo NVL72 — 72 GPUs, switch NVLink, sistema de resfriamento líquido, gabinete, e até o software necessário, tudo em um pacote.
Jensen Huang também tem um plano bem definido: embora pareça que o custo do hardware em pacote ficou mais alto, ele oferece uma eficiência de raciocínio extrema, reduzindo o custo por unidade de uso de IA para o comprador, sem perder participação de mercado.
Porém, há um porém: essa abordagem também eleva a barreira de entrada para jogadores médios e pequenos. Apenas grandes empresas e provedores de nuvem poderão arcar com ela, o que pode intensificar ainda mais o monopólio de capacidade de cálculo. Diante do cenário atual de competição, isso é uma aposta arriscada, pois se houver problemas na produção em massa do HBM4, alternativas como AMD, TPU do Google e outros podem aproveitar a janela de oportunidade para substituí-lo, e o sonho da NVIDIA de vender sistemas pode não ser tão fácil de realizar.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
Durante a feira CES, a nova arquitetura Rubin da NVIDIA tornou-se o foco das discussões recentes do mercado, além de ser uma grande inovação além da arquitetura MOE, e uma solução feita sob medida para a era do Agentic AI, entre outros tópicos. Após uma análise aprofundada, realmente senti o sabor da "auto-revolução" do Jensen Huang:
1)No passado, a NVIDIA dependia de sua vantagem em hardware GPU, aproveitando o período de bonança em que os principais gigantes de IA estavam comprando loucamente capacidade de cálculo para treinar grandes modelos. Naquela época, a lógica era simples: quem tinha mais placas gráficas podia treinar os melhores modelos.
Mas agora, a guerra de IA mudou do campo de batalha do "poder de cálculo" para o "raciocínio", especialmente com a chegada da era Agentic, onde a IA precisa lidar com raciocínios de alta frequência, múltiplas etapas e contextos extremamente longos.
Neste momento, os modelos têm trilhões de parâmetros, o volume de dados é enorme, e por mais rápido que seja o GPU, se a transferência de dados na memória não for suficiente, o GPU ficará ocioso, formando a "parede de capacidade de armazenamento". Em outras palavras, ter muitas placas gráficas já não resolve o problema; é preciso alta capacidade de memória e largura de banda para suportar. Rubin busca resolver exatamente esse problema.
2)Por isso, o HBM4 de lançamento do Rubin é capaz de suportar a quarta geração de memória de alta largura de banda, chegando a uma largura de banda de 22TB/s. Mas o mais importante é que, combinado com a tecnologia NVLink 6 (com largura de banda de 260TB/s dentro do rack), transforma 72 placas em um "chip gigante" logicamente.
O que isso significa? Antes, ao comprar uma placa gráfica, você adquiria componentes independentes, e a transferência de dados entre elas era como uma entrega que passava por várias estações de trânsito. Agora, com uma interconexão de densidade extremamente alta, os dados fluem entre diferentes GPUs quase sem sentir a distância física, como se 72 trabalhadores não trabalhassem isoladamente, mas compartilhassem um cérebro.
Acredito que essa seja a verdadeira carta na manga do Rubin: não apenas acumular parâmetros de hardware, mas reestruturar o fluxo de dados de todo o sistema.
3)Se o MOE (Arquitetura de Modelo de Especialista Híbrido) foi uma redução de dimensão na estratégia da NVIDIA de competir com empresas emergentes como a DeepSeek, que apostam na "pilha de placas" de forma agressiva, então o Rubin parece ser uma contra-ofensiva estratégica do Jensen Huang. Não se trata mais de competir para ver quem economiza mais placas, mas de reestruturar diretamente o custo de uso da IA. Claro, essa jogada também significa que a NVIDIA está se despedindo do antigo modelo de "pilha de placas" de forma definitiva.
Jensen Huang calcula uma outra conta: para que a era Agentic realmente se implemente em todos os setores, é preciso superar o barreira do custo por token, uma tendência inevitável que a NVIDIA não consegue impedir.
Na visão dele, ao invés de esperar que grandes empresas como Google, Meta e outras desenvolvam seus próprios chips e acabem com o mercado, ou que empresas como DeepSeek revolucionem o mercado de oferta com novos modelos, é melhor ser aquele que toma a iniciativa de quebrar o impasse.
4)A questão é: como a NVIDIA, após sua auto-revolução, deve se posicionar? O caminho é bastante claro: de "vender placas gráficas" para "vender sistemas", de atender poucos grandes clientes para tornar a IA verdadeiramente acessível.
Antes, ao comprar um H100, a NVIDIA ganhava apenas com a venda da placa gráfica. Agora, o Rubin vai te dizer: você precisa comprar um rack completo NVL72 — 72 GPUs, switch NVLink, sistema de resfriamento líquido, gabinete, e até o software necessário, tudo em um pacote.
Jensen Huang também tem um plano bem definido: embora pareça que o custo do hardware em pacote ficou mais alto, ele oferece uma eficiência de raciocínio extrema, reduzindo o custo por unidade de uso de IA para o comprador, sem perder participação de mercado.
Porém, há um porém: essa abordagem também eleva a barreira de entrada para jogadores médios e pequenos. Apenas grandes empresas e provedores de nuvem poderão arcar com ela, o que pode intensificar ainda mais o monopólio de capacidade de cálculo. Diante do cenário atual de competição, isso é uma aposta arriscada, pois se houver problemas na produção em massa do HBM4, alternativas como AMD, TPU do Google e outros podem aproveitar a janela de oportunidade para substituí-lo, e o sonho da NVIDIA de vender sistemas pode não ser tão fácil de realizar.