Num movimento que marca uma viragem significativa na sua estratégia, a NVIDIA optou por não apresentar placas gráficas de consumo no CES 2026. Em seu lugar, Jensen Huang subiu ao palco com algo muito mais ambicioso: uma plataforma de computação de 2,5 toneladas que promete redefinir o treino e a inferência de modelos de inteligência artificial.
Quando o design de chips quebra as suas próprias regras
A verdadeira surpresa não reside no tamanho do chassi, mas na sua composição interna. A plataforma Vera Rubin (batizada assim em homenagem à astrónoma que descobriu a matéria escura) quebrou uma regra interna que a NVIDIA manteve durante anos: cada geração de produtos apenas redesenha 1-2 chips no máximo.
Desta vez, a empresa redesenhou simultaneamente 6 chips diferentes, completando o ciclo de desenvolvimento e entrando diretamente em produção em massa. A razão é pragmática: a Lei de Moore desacelera-se, mas os modelos de IA continuam a exigir um crescimento de desempenho anual de 10 vezes. A única solução era inovar não num componente, mas em toda a arquitetura.
Os seis pilares de Vera Rubin
Vera CPU: O coração computacional com 88 núcleos Olympus personalizados, capaz de processar 176 fios simultaneamente. A sua memória do sistema atinge 1,5 TB, o triplo do seu antecessor Grace, com uma largura de banda NVLink C2C de 1,8 TB/s.
Rubin GPU: O verdadeiro motor de inferência. Oferece uma potência NVFP4 de 50 PFLOPS, cinco vezes superior à arquitetura Blackwell anterior. Com 336 mil milhões de transistores, incorpora a terceira geração de motores Transformer, permitindo ajustar dinamicamente a precisão conforme cada modelo.
Conetividade e armazenamento: ConnectX-9 fornece Ethernet de 800 Gb/s. O processador BlueField-4 DPU gere a nova geração de armazenamento para IA, combinando uma CPU Grace de 64 núcleos com capacidades de 800 Gb/s.
Infraestrutura de comunicação: O chip comutador NVLink-6 conecta 18 nós de computação, permitindo que até 72 GPUs Rubin funcionem como um único sistema com 3,6 TB/s de largura de banda all-to-all. Spectrum-6 acrescenta 512 canais óticos de 200 Gbps cada, graças à integração de silício fotónico da TSMC COOP.
O impacto em números: quando o investimento se multiplica
O sistema NVL72 de Vera Rubin atinge 3,6 EFLOPS em tarefas de inferência NVFP4, cinco vezes mais que Blackwell. Em treino, chega a 2,5 EFLOPS, um aumento de 3,5 vezes. Mas o mais dramático é a memória: 54 TB de LPDDR5X (o triplo) e 20,7 TB de HBM (1,5 vezes mais).
Para um centro de dados de 1 GW que custa 50 mil milhões de dólares, isto não é apenas uma melhoria técnica. Significa que o throughput em tokens de IA gerados por watt e dólar melhora 10 vezes, duplicando diretamente a capacidade de receitas da infraestrutura.
Treinar um modelo de 10 biliões de parâmetros agora requer apenas 1/4 dos sistemas Blackwell anteriores. O custo por token gerado desce para cerca de 1/10 do anterior.
Resolving the bottleneck: a memória de contexto
Durante meses, a indústria de IA enfrentou um problema crescente: a “KV Cache” ou memória de trabalho que os modelos geram esgota-se rapidamente em conversas longas. Vera Rubin resolve isto ao desplegar processadores BlueField-4 dentro do chassi, cada um com 150 TB de memória de contexto.
Esta abordagem fornece a cada GPU 16 TB adicionais de memória (quando originalmente dispõe de ~1 TB), mantendo uma largura de banda de 200 Gbps sem sacrificar velocidade. A rede Spectrum-X, desenhada especificamente para IA generativa, garante que estas “notas adesivas” dispersas por milhares de GPUs funcionem como uma única memória coerente.
Jensen Huang calculou que o Spectrum-X pode melhorar o throughput em 25%, o que equivale a poupar 5 mil milhões de dólares num centro de dados desta escala. “É praticamente grátis”, resumiu.
Segurança encriptada em cada camada
Todos os dados em trânsito, armazenamento e cálculo estão encriptados, incluindo os buses PCIe, comunicação NVLink e transferências CPU-GPU. As empresas podem desplegar modelos em sistemas externos sem receio de fugas de dados.
A viragem para a IA física e a inteligência de agentes
Enquanto Vera Rubin fornece a potência bruta, a NVIDIA anunciou uma mudança de paradigma mais profunda: a era dos “agentes inteligentes” e da IA física está aqui.
Jensen Huang fez um apelo especial à comunidade de código aberto, destacando como o DeepSeek V1 surpreendeu o mundo no ano passado como o primeiro sistema de inferência open source, desencadeando uma onda de inovação. Reconheceu a Kimi K2 e DeepSeek V3.2 como líderes no espaço open source, demonstrando que a NVIDIA agora constrói sobre este ecossistema em vez de competir contra ele.
A estratégia não é apenas vender pás. A NVIDIA desenvolveu o supercomputador DGX Cloud (avaliado em milhares de milhões) e modelos de ponta como a synthesia de proteínas (A Proteína) e OpenFold 3. A sua família open source Nemotron inclui modelos de voz, multimodais, recuperação aumentada e segurança.
Alpamayo: condução autónoma com raciocínio
O verdadeiro surpreendente do evento foi o Alpamayo, o primeiro sistema de condução autónoma do mundo com capacidades de pensamento e raciocínio. Ao contrário da condução autónoma baseada em regras, o Alpamayo raciocina como um condutor humano, decompondo cenários complexos em elementos de sentido comum.
“Vai dizer-te o que vai fazer a seguir e porquê decide assim”, explicou Jensen Huang. O Mercedes CLA com esta tecnologia será lançado nos EUA no primeiro trimestre de 2026, classificado como o carro mais seguro do mundo pela NCAP, graças à arquitetura de “dobro de pilha de segurança” que a NVIDIA desenvolveu.
Robôs, fábricas e o futuro da IA física
A NVIDIA apresentou uma estratégia integral de robótica. Todos os robôs estarão equipados com o miniordenador Jetson e treinados no simulador Isaac da plataforma Omniverse. A visão é clara: design de chips, arquitetura de sistemas e simulação de fábricas, tudo acelerado por IA física.
Jensen Huang convidou robôs humanoides e quadrúpedes da Boston Dynamics e da Agility ao palco, enfatizando que a própria fábrica é o maior robô. Até os robôs da Disney foram treinados em computadores e validados em simulações antes de enfrentarem a gravidade no mundo real.
A mensagem de fundo
Num contexto onde cresce o ceticismo sobre a “bolha de IA” e os limites da Lei de Moore se tornam evidentes, Jensen Huang precisava de demonstrar com factos concretos o que a IA pode alcançar.
Antes, a NVIDIA fazia chips para o mundo virtual. Agora, eles próprios demonstram como a IA física—em forma de condução autónoma e robôs humanoides—está a entrar no mundo real. Como disse, quando a batalha começa, o negócio da “indústria militar” pode realmente prosperar.
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
Vera Rubin: A transformação silenciosa que a NVIDIA está a preparar para 2026
Num movimento que marca uma viragem significativa na sua estratégia, a NVIDIA optou por não apresentar placas gráficas de consumo no CES 2026. Em seu lugar, Jensen Huang subiu ao palco com algo muito mais ambicioso: uma plataforma de computação de 2,5 toneladas que promete redefinir o treino e a inferência de modelos de inteligência artificial.
Quando o design de chips quebra as suas próprias regras
A verdadeira surpresa não reside no tamanho do chassi, mas na sua composição interna. A plataforma Vera Rubin (batizada assim em homenagem à astrónoma que descobriu a matéria escura) quebrou uma regra interna que a NVIDIA manteve durante anos: cada geração de produtos apenas redesenha 1-2 chips no máximo.
Desta vez, a empresa redesenhou simultaneamente 6 chips diferentes, completando o ciclo de desenvolvimento e entrando diretamente em produção em massa. A razão é pragmática: a Lei de Moore desacelera-se, mas os modelos de IA continuam a exigir um crescimento de desempenho anual de 10 vezes. A única solução era inovar não num componente, mas em toda a arquitetura.
Os seis pilares de Vera Rubin
Vera CPU: O coração computacional com 88 núcleos Olympus personalizados, capaz de processar 176 fios simultaneamente. A sua memória do sistema atinge 1,5 TB, o triplo do seu antecessor Grace, com uma largura de banda NVLink C2C de 1,8 TB/s.
Rubin GPU: O verdadeiro motor de inferência. Oferece uma potência NVFP4 de 50 PFLOPS, cinco vezes superior à arquitetura Blackwell anterior. Com 336 mil milhões de transistores, incorpora a terceira geração de motores Transformer, permitindo ajustar dinamicamente a precisão conforme cada modelo.
Conetividade e armazenamento: ConnectX-9 fornece Ethernet de 800 Gb/s. O processador BlueField-4 DPU gere a nova geração de armazenamento para IA, combinando uma CPU Grace de 64 núcleos com capacidades de 800 Gb/s.
Infraestrutura de comunicação: O chip comutador NVLink-6 conecta 18 nós de computação, permitindo que até 72 GPUs Rubin funcionem como um único sistema com 3,6 TB/s de largura de banda all-to-all. Spectrum-6 acrescenta 512 canais óticos de 200 Gbps cada, graças à integração de silício fotónico da TSMC COOP.
O impacto em números: quando o investimento se multiplica
O sistema NVL72 de Vera Rubin atinge 3,6 EFLOPS em tarefas de inferência NVFP4, cinco vezes mais que Blackwell. Em treino, chega a 2,5 EFLOPS, um aumento de 3,5 vezes. Mas o mais dramático é a memória: 54 TB de LPDDR5X (o triplo) e 20,7 TB de HBM (1,5 vezes mais).
Para um centro de dados de 1 GW que custa 50 mil milhões de dólares, isto não é apenas uma melhoria técnica. Significa que o throughput em tokens de IA gerados por watt e dólar melhora 10 vezes, duplicando diretamente a capacidade de receitas da infraestrutura.
Treinar um modelo de 10 biliões de parâmetros agora requer apenas 1/4 dos sistemas Blackwell anteriores. O custo por token gerado desce para cerca de 1/10 do anterior.
Resolving the bottleneck: a memória de contexto
Durante meses, a indústria de IA enfrentou um problema crescente: a “KV Cache” ou memória de trabalho que os modelos geram esgota-se rapidamente em conversas longas. Vera Rubin resolve isto ao desplegar processadores BlueField-4 dentro do chassi, cada um com 150 TB de memória de contexto.
Esta abordagem fornece a cada GPU 16 TB adicionais de memória (quando originalmente dispõe de ~1 TB), mantendo uma largura de banda de 200 Gbps sem sacrificar velocidade. A rede Spectrum-X, desenhada especificamente para IA generativa, garante que estas “notas adesivas” dispersas por milhares de GPUs funcionem como uma única memória coerente.
Jensen Huang calculou que o Spectrum-X pode melhorar o throughput em 25%, o que equivale a poupar 5 mil milhões de dólares num centro de dados desta escala. “É praticamente grátis”, resumiu.
Segurança encriptada em cada camada
Todos os dados em trânsito, armazenamento e cálculo estão encriptados, incluindo os buses PCIe, comunicação NVLink e transferências CPU-GPU. As empresas podem desplegar modelos em sistemas externos sem receio de fugas de dados.
A viragem para a IA física e a inteligência de agentes
Enquanto Vera Rubin fornece a potência bruta, a NVIDIA anunciou uma mudança de paradigma mais profunda: a era dos “agentes inteligentes” e da IA física está aqui.
Jensen Huang fez um apelo especial à comunidade de código aberto, destacando como o DeepSeek V1 surpreendeu o mundo no ano passado como o primeiro sistema de inferência open source, desencadeando uma onda de inovação. Reconheceu a Kimi K2 e DeepSeek V3.2 como líderes no espaço open source, demonstrando que a NVIDIA agora constrói sobre este ecossistema em vez de competir contra ele.
A estratégia não é apenas vender pás. A NVIDIA desenvolveu o supercomputador DGX Cloud (avaliado em milhares de milhões) e modelos de ponta como a synthesia de proteínas (A Proteína) e OpenFold 3. A sua família open source Nemotron inclui modelos de voz, multimodais, recuperação aumentada e segurança.
Alpamayo: condução autónoma com raciocínio
O verdadeiro surpreendente do evento foi o Alpamayo, o primeiro sistema de condução autónoma do mundo com capacidades de pensamento e raciocínio. Ao contrário da condução autónoma baseada em regras, o Alpamayo raciocina como um condutor humano, decompondo cenários complexos em elementos de sentido comum.
“Vai dizer-te o que vai fazer a seguir e porquê decide assim”, explicou Jensen Huang. O Mercedes CLA com esta tecnologia será lançado nos EUA no primeiro trimestre de 2026, classificado como o carro mais seguro do mundo pela NCAP, graças à arquitetura de “dobro de pilha de segurança” que a NVIDIA desenvolveu.
Robôs, fábricas e o futuro da IA física
A NVIDIA apresentou uma estratégia integral de robótica. Todos os robôs estarão equipados com o miniordenador Jetson e treinados no simulador Isaac da plataforma Omniverse. A visão é clara: design de chips, arquitetura de sistemas e simulação de fábricas, tudo acelerado por IA física.
Jensen Huang convidou robôs humanoides e quadrúpedes da Boston Dynamics e da Agility ao palco, enfatizando que a própria fábrica é o maior robô. Até os robôs da Disney foram treinados em computadores e validados em simulações antes de enfrentarem a gravidade no mundo real.
A mensagem de fundo
Num contexto onde cresce o ceticismo sobre a “bolha de IA” e os limites da Lei de Moore se tornam evidentes, Jensen Huang precisava de demonstrar com factos concretos o que a IA pode alcançar.
Antes, a NVIDIA fazia chips para o mundo virtual. Agora, eles próprios demonstram como a IA física—em forma de condução autónoma e robôs humanoides—está a entrar no mundo real. Como disse, quando a batalha começa, o negócio da “indústria militar” pode realmente prosperar.