Ninguém entende melhor do que a Nvidia a "próxima geração de computação de IA".

Fonte: Geek Park

Escrito por: Xu Shan

「Estou convencido de que estamos a viver uma festa tecnológica. Hoje, cada um de vocês representa o ecossistema da Nvidia.» Na cerimónia de abertura do GTC 2026, aquele homem que está sempre vestido com uma jaqueta de couro preta — Huang Renxun — subiu ao palco com a sua confiança habitual.

Ao contrário de anos anteriores, este ano celebra-se o 20º aniversário do ecossistema CUDA. Logo no início, Huang contou como a Nvidia passou de Geforce a ray tracing, até à inteligência artificial, construindo passo a passo a sua própria barreira defensiva. «Hoje, o ecossistema CUDA já forma um ciclo de dados em espiral.» Sob a sua narrativa, podemos ver que o ecossistema CUDA que ele criou pessoalmente já construiu um império comercial.

Nesta apresentação, Huang trouxe o Vera Rubin, especialmente desenhado para inteligência artificial de agentes inteligentes, com uma capacidade de cálculo de 3,6 EFLOPS. Com o novo rack lançado, a eficiência de throughput por megawatt aumentou 35 vezes. Além disso, lançou uma CPU especialmente desenhada para desempenho de thread único — Vera CPU.

Mais importante ainda, a Nvidia lançou a solução de referência empresarial OpenClaw, NemoClaw. Pode ser descarregada, utilizada, desenvolvida secundariamente e integrada com todas as SaaS globais. Em comparação, este ano, a atenção dada pela Nvidia a robôs, condução autónoma e computação quântica nos discursos principais foi reduzida.

Após esta palestra, fica a sensação de que estamos no início de uma nova revolução na plataforma de computação. Tal como na última transformação, com o nascimento do Google e Amazon, nesta nova explosão de IA, estão a surgir gigantes que vão mudar o mundo.

A confiança de Huang em cada etapa, com a sua lista interminável de empresas, é a sua base. Ele não só define o cálculo, mas também usa a IA como ponto de apoio para forçar a integração global de finanças, saúde, manufatura e retalho numa «Era da IA» dominada por GPUs.

Mais uma vez, a Nvidia vê o futuro da IA e está a puxar o mundo inteiro para dentro dele.

01 Vera Rubin: 7 chips inovadores, 5 sistemas de rack, 1 supercomputador

«Em apenas dez anos, o poder de cálculo aumentou 40 milhões de vezes.» A Nvidia revisitou o crescimento exponencial do poder de cálculo ao longo dos últimos 10 anos, impulsionado pelas três grandes leis de expansão, desde pré-treinamento, ajuste fino, inferência, até aos sistemas de inteligência geral, com uma procura de cálculo que continua a crescer exponencialmente.

Na era dos Agentes de IA, a Nvidia apresentou o Vera Rubin. Este foi desenhado para o ciclo de vida completo de agentes inteligentes, redefinindo a nível de chips o CPU, armazenamento, rede e segurança necessários para esses agentes.

Em termos de parâmetros, o Vera Rubin usa NVLink 6, atingindo uma capacidade de 3,6 EFLOPS, tornando-se o motor principal da era da IA de agentes. Além disso, em comparação com a geração anterior, o sistema Vera Rubin implementou 100% de refrigeração líquida, eliminando todos os cabos tradicionais.

No que diz respeito à configuração geral, o rack Vera CPU foi desenhado para orquestração e cargas de trabalho gerais. O rack STX, baseado no BlueField-4, oferece armazenamento nativo de IA. Com a tecnologia de encapsulamento óptico Spectrum-6, permite expansão horizontal, aumentando significativamente a eficiência energética e fiabilidade.

O rack Groq 3 LPX está profundamente interligado com o Vera Rubin, com o LPU da Groq integrado com 230MB de SRAM on-chip, impulsionando ainda mais a velocidade de cálculo.

Todo o sistema, com sete chips e cinco racks, aumenta o throughput de potência de cálculo por megawatt em 35 vezes. Sem dúvida, a plataforma Vera Rubin, com estes componentes, cria um supercomputador revolucionário de IA orientado à inteligência geral.

Ao falar sobre o conceito de design do produto, Huang acredita que os grandes modelos de linguagem vão crescer cada vez mais, com tokens gerados a uma velocidade maior, permitindo raciocínios mais rápidos. Mas, ao mesmo tempo, esses modelos precisam de aceder frequentemente à memória, o que coloca uma pressão enorme na memória, incluindo cache KV, dados estruturados QDF, dados não estruturados QVS, etc. Assim, os sistemas de armazenamento terão de ser completamente reescritos para a era da IA.

Na era dos Agentes, a IA usará várias ferramentas e terá requisitos de velocidade muito elevados para navegadores web e PCs virtuais. Portanto, esses PCs e nós de cálculo devem ser mais rápidos. A Nvidia criou uma nova CPU, a Vera CPU, especialmente desenhada para desempenho de thread único, com alta capacidade de saída de dados, eficiência de processamento e bom desempenho energético. É a única CPU de centro de dados que usa LPDFR5X, com desempenho de thread único e desempenho por watt ao máximo, com excelente relação custo-benefício.

A família Vera Rubin|Fonte: Nvidia

«Criámos esta CPU para colaborar com toda a infraestrutura, suportando tarefas de agentes inteligentes. Este produto já está em produção. Nunca pensamos em vendê-la separadamente, mas as vendas independentes estão a ser bastante boas. Sem dúvida, será uma parte de negócios na casa dos milhares de milhões de dólares. Estou muito satisfeito com a nossa equipa de arquitetura de CPU.» disse Huang.

Huang também mostrou ao vivo o Rubin Ultra. Ao contrário do método tradicional de inserção horizontal do Rubin, o Rubin Ultra usa um novo rack Groq, inserido verticalmente no rack Groq. «Este rack Groq é muito pesado, não consigo levantá-lo, por isso não vou tentar.»

O rack Groq|Fonte: Nvidia

Na parte traseira do painel, a Nvidia deixou de usar cabos de cobre tradicionais. Acredita que os cabos de cobre têm limitações de alcance, por isso, conecta 144 GPUs com um novo sistema, o NVLink de última geração. Este também é instalado verticalmente, conectando-se ao painel traseiro. A parte frontal é de cálculo, enquanto a traseira é um switch NVLink, formando um supercomputador gigante.

Voltando ao ponto principal, quanta vantagem prática traz a nova arquitetura de chips? Huang mencionou que os chips influenciarão, no final, a posição de mercado e o preço dos tokens futuros.

«Tokens são uma nova mercadoria em grande escala. Como todas as mercadorias, uma vez que ultrapassam um ponto de inflexão e amadurecem, tornam-se estratificadas.» Ele fez uma classificação dos tokens futuros:

  • Versões de alta taxa de throughput, baixa velocidade, para planos gratuitos;
  • Planos de gama média, com modelos maiores, mais rápidos e maior comprimento de contexto de entrada;
  • No futuro, poderão surgir planos de topo de gama, suportando velocidades de geração de tokens extremamente altas, para tarefas críticas ou cenários de pesquisa de comprimento ultra longo. Nesses casos, 150 dólares por milhão de tokens será totalmente razoável.

«Quanto maiores os modelos, mais inteligentes eles são; quanto maior o contexto de tokens de entrada, mais precisos e relevantes os resultados; mais rápido for o raciocínio e a iteração, mais inteligente a IA será. Quanto mais inteligente for o modelo, mais o preço pode subir, por exemplo, até 45 dólares por nível.» Ele acredita que o consumo de tokens mudará tudo.

Na sua visão, se um investigador usar 50 milhões de tokens por dia, a 150 dólares por milhão, isso é totalmente aceitável para uma equipa de investigação. «Este é o futuro da IA.» Do ponto de vista do cliente, ele propõe redistribuir todos os recursos de cálculo: 25% para planos gratuitos, 25% para gama média, 25% para topo de gama e 25% para o serviço premium. Se o centro de dados tiver apenas 1 gigavatio de potência, o cliente pode decidir como distribuir esses recursos, atraindo mais utilizadores com planos gratuitos e atendendo os clientes mais valiosos com planos de topo. Estas combinações determinarão, em última análise, a receita.

Sob este modelo simples, Huang afirmou que, usando a plataforma Blackwell, é possível alcançar um aumento de 5 vezes na receita em comparação com Hopper. E a Vera Rubin pode gerar 5 vezes mais receita do que a Blackwell.

Vera Rubin|Fonte: Nvidia

O sistema de cálculo Groq é um processador de fluxo de dados determinístico, que usa compilação estática e agendamento por compilador. Ou seja, toda a programação de tempo, como a transmissão de dados, execução de cálculos e sincronização, é planeada antecipadamente pelo compilador, sem agendamento dinâmico. Este sistema vem equipado com HBM de grande capacidade, criado especificamente para cargas de trabalho de inferência.

Atualmente, o Groq 3 LPU entrou em produção, com previsão de início de entregas no terceiro trimestre deste ano, com o produto Groq LP.

Quanto ao Vera Rubin, embora as primeiras amostras do Grace Blackwell tenham sido complexas de ajustar, simulando 72 ligações, as amostras do Vera Rubin já passaram nos testes, e o primeiro rack Vera Rubin está a funcionar normalmente na Azure da Microsoft.

Atualmente, a Nvidia está a produzir em grande escala os racks Vera Rubin e GB300, com uma cadeia de abastecimento capaz de produzir milhares de sistemas semanalmente.

A próxima arquitetura de chips da Nvidia chama-se Feynman.

Além disso, tanto o Groq como o Vera Rubin serão componentes centrais na fábrica de IA da Nvidia.

Um chip Groq tem apenas 500MB de armazenamento; enquanto que um chip GPU Vera Rubin terá 288GB de HBM4.

Um modelo de um trilhão de parâmetros, com todos os seus parâmetros armazenados no chip Groq, exigirá muitos chips para garantir o armazenamento. Mas, se colocado ao lado do Vera Rubin, poderá armazenar na sua memória KV massiva necessária para sistemas AIGC.

Assim, a Nvidia está a reestruturar a alocação de recursos para inferência de IA — atribuindo as tarefas mais adequadas ao chip mais adequado.

Na visão de Huang, partes como a atenção na decodificação do modelo, que requerem muitos cálculos, podem ser feitas no Vera Rubin; enquanto a geração de tokens de decodificação pode ser feita no chip Groq.

Após uma conexão Ethernet especial, esses dois conjuntos de chips podem reduzir a latência do Alpamayo quase à metade. Com o software de agendamento e integração Dynamo da Nvidia, a arquitetura Vera Rubin, combinada com o Groq LPU, aumentou o desempenho de inferência de alto nível em 35 vezes.

02 NemoClaw: Referência comercial para AIOS

«OpenClaw é o projeto de código aberto mais popular da história, e atingiu este marco em apenas algumas semanas. A sua velocidade de desenvolvimento até superou o Linux na altura.» Huang mencionou que o OpenClaw pode interagir com qualquer modo, entendendo tudo; pode enviar mensagens, SMS, emails. Tem capacidades completas de entrada/saída.

«OpenClaw abriu o sistema operativo para computadores de agentes inteligentes. É como o Windows na era dos PCs pessoais, agora o OpenClaw permite criar agentes inteligentes pessoais.»

Huang acredita que, para cada empresa, cada CEO de software e tecnologia, a questão mais importante atualmente é: qual é a sua estratégia OpenClaw?

«Assim como precisamos de estratégias de Linux, HTTP, HTML — que abriram a era da internet; e de estratégias de Kubernetes — que criaram a era da computação móvel em nuvem. Hoje, toda empresa deve ter uma estratégia OpenClaw, ou seja, uma estratégia de sistemas de agentes.» Esta é a nova geração de computadores.

Ele acredita que, no futuro, a forma de trabalhar das empresas, das pessoas e até os métodos de pagamento irão mudar.

Antes do OpenClaw, o modelo de TI empresarial era baseado em «data centers», grandes salas ou edifícios que armazenavam dados, documentos e informações estruturadas. Os dados passavam por ferramentas de software, sistemas de registo e fluxos de trabalho integrados na TI, tornando-se ferramentas para humanos e trabalhadores digitais. Na indústria de TI antiga, as empresas de software criavam ferramentas, armazenavam ficheiros e os consultores ajudavam na implementação.

Futuro da estrutura empresarial|Fonte: Nvidia

Mas na era do OpenClaw e dos agentes inteligentes, cada empresa de TI, cada negócio e cada SaaS tornar-se-á uma «empresa de serviços de agentes» (Agent-as-a-Service, AAS).

Porém, há uma questão-chave ainda por resolver — os sistemas de agentes na rede empresarial podem aceder a informações sensíveis, executar códigos e comunicar com o exterior. Podem obter dados confidenciais de funcionários, cadeias de abastecimento, finanças, e transmiti-los, levantando riscos de segurança.

Depois, a Nvidia lançou a sua própria solução de referência OpenClaw, o Open NemoClaw.

NemoClaw|Fonte: Nvidia

Inclui um conjunto completo de ferramentas de IA de agentes, sendo uma das suas tecnologias centrais o módulo OpenShell, agora totalmente integrado no OpenClaw. Os utilizadores podem descarregar, usar, desenvolver secundariamente e integrar com os motores de estratégia de todas as SaaS globais.

Ao mesmo tempo, podem conectar esses motores de estratégia, implementar políticas de segurança, definir barreiras de rede, configurar rotas de privacidade e proteger o ambiente interno da empresa, garantindo que os agentes operem de forma segura e controlada. O Open NemoClaw também permite aos utilizadores criar agentes personalizados, usando os seus próprios modelos exclusivos.

NemoClaw com modelos Nvidia na classificação de produtos semelhantes|Fonte: Nvidia

Huang acredita que, no futuro, uma das formas de recrutamento no Vale do Silício será: «Este trabalho vem com um limite de tokens?»

Assim, o salário base dos funcionários poderá ser de dezenas de milhares de dólares por ano, e a empresa poderá pagar-lhes metade do salário em tokens, multiplicando a sua produtividade por 10.

No futuro, todas as empresas de software serão impulsionadas por agentes inteligentes. Serão produtoras e utilizadoras de tokens, além de fornecedoras de tokens a todos os clientes.

03 IA física: BYD, Geely juntam-se ao círculo de Robotaxi da Nvidia, Disney Snow White em destaque

Depois de falar sobre as mudanças na camada de aplicação, Huang virou-se para a direção da IA física, apresentando a sua família de IA física.

A família de IA física da Nvidia|Fonte: Nvidia

Atualmente, a Nvidia tem três tipos de computadores: para treino, para geração de dados sintéticos e simulação, e para o interior dos veículos autônomos.

A Nvidia também anunciou uma série de novos parceiros. «A era do ChatGPT para condução autónoma chegou. Agora estamos convencidos de que os carros podem alcançar uma condução totalmente autónoma com sucesso.» disse Huang.

A Nvidia anunciou mais quatro novos parceiros para a sua plataforma de Robotaxi: BYD, Hyundai, Nissan e Geely. Estas fabricantes produzem, juntas, 18 milhões de veículos por ano. Com os parceiros já existentes, como Mercedes, Toyota e GM, o número de veículos suportados para Robotaxi será muito elevado. A Nvidia também anunciou que irá integrar esses veículos nas redes operacionais dos seus parceiros em várias cidades.

No futuro, as torres de rádio tradicionais transformar-se-ão em estações inteligentes NVIDIA Aerial AI RIM, que funcionarão como «torres de rádio Robotaxi». Assim, as empresas poderão entender o trânsito, ajustar a direção do feixe de forma inteligente, maximizar a fidelidade e economizar energia.

Huang também mencionou que, com o Alpamayo da Nvidia, os veículos terão capacidade de raciocínio, podendo conduzir de forma segura e inteligente em várias situações. Poderão explicar o seu raciocínio e obedecer a comandos de voz.

Por exemplo, podemos dizer ao carro: «Hey Mercedes, podemos acelerar um pouco?» E o carro responderá: «Claro, vou acelerar agora.» Combinando simulação tradicional e neuro-simulação, geram-se grandes volumes de dados sintéticos e treinam-se modelos de estratégia em larga escala.

A Nvidia também criou várias ferramentas de código aberto: Isaac Lab, para treino e avaliação de robôs em simulação; Newton, um motor de física diferencial escalável e acelerado por GPU; Cosmos, um modelo de mundo para simulação neural; e GR00T, um modelo de base de robô de código aberto para raciocínio e ações.

No final da palestra, o robô Snow White, do filme Frozen, da Disney, subiu ao palco. Atualmente, os robôs da Disney estão a ser treinados com simulação da Nvidia. «Um dos robôs que mais espero é o da Disney.» disse Huang.

Huang Renxun e o Snow White acenando adeus ao GTC|Fonte: Nvidia

Este ano, Huang não apresentou apenas orientações ou slogans na GTC, mas um conjunto completo de ferramentas práticas para os empreendedores de IA começarem a usar imediatamente.

Desde chips de IA, sistemas de agentes OpenClaw, IA física, robôs e condução autónoma, ele deu respostas às principais questões do setor para os próximos anos. Cada empresa, cada desenvolvedor, pode encontrar o seu lugar nesta nova estrutura.

A partir de agora, a IA deixará de ser apenas uma questão de parâmetros, potência de cálculo ou narrativa, e passará a ser uma ferramenta concreta para as empresas. Talvez não seja uma vitória de uma única empresa, mas o início de uma verdadeira engrenagem de IA a funcionar.

Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
Adicionar um comentário
Adicionar um comentário
Sem comentários
  • Marcar