Conferência GTC da Nvidia em texto completo: Huang Renxun anuncia a chegada da era da inferência, lagostas são o novo sistema operacional!

Fonte: Wall Street Jingwen

Escrito por: Bao Yilong

Na conferência GTC 2026, o CEO da Nvidia, Huang Renxun, posicionou a empresa como construtora de “Fábricas de IA”, afirmando que “até 2027 veremos uma demanda de pelo menos 1 trilhão de dólares com alta confiança”. Ele apresentou a “Economia de Token de Fábrica”, destacando que o desempenho por watt é o núcleo da monetização comercial. Huang Renxun afirmou que agentes inteligentes irão acabar com o modelo tradicional de SaaS, e que no futuro “salário anual + orçamento de Token” será o novo padrão no mercado de trabalho.

Discurso de abertura

Moderador: Bem-vindos ao palco Huang Renxun, fundador e CEO da Nvidia.

Huang Renxun, fundador e CEO:

Bem-vindos ao GTC. Esta é uma conferência tecnológica, fico muito feliz ao ver tantas pessoas na fila cedo de manhã.

Hoje, vamos discutir três plataformas principais: a plataforma CUDA-X, a plataforma de sistemas e a nova plataforma de Fábrica de IA. Claro, o mais importante é o ecossistema.

Primeiro, agradeço aos nossos anfitriões de “aquecimento pré-conferência”: Sarah Guo, da Conviction; Alfred Lin, da Sequoia Capital (o primeiro investidor de risco da Nvidia); e Gavin Baker, o primeiro investidor institucional importante na Nvidia. Essas três pessoas têm uma compreensão profunda de tecnologia e grande influência no ecossistema tecnológico. Além disso, agradeço a todos os convidados que selecionei pessoalmente.

Também agradeço a todas as empresas participantes. Como uma plataforma, a Nvidia possui tecnologia, plataformas e um ecossistema rico. Hoje, quase todas as empresas que abrangem uma indústria de trilhões de dólares estão aqui — 450 empresas patrocinando este evento, muito obrigado.

Este evento conta com 1.000 sessões técnicas, reunindo 2.000 palestrantes, cobrindo cada camada do “bolo de cinco camadas” da inteligência artificial — desde terra, energia e infraestrutura, até chips, plataformas, modelos e as diversas aplicações que impulsionam toda a indústria.

Histórico de 20 anos do CUDA

Este ano marca o 20º aniversário do CUDA.

Ao longo de 20 anos, temos dedicado esforços a essa arquitetura — essa invenção revolucionária: SIMT (Single Instruction, Multiple Threads), que permite derivar aplicações multithread a partir de código escalar, facilitando a programação em comparação com métodos tradicionais. Recentemente, adicionamos suporte a Tiles, ajudando desenvolvedores a programar Tensor Cores e estruturas matemáticas de IA atuais de forma mais conveniente.

Até agora, o CUDA acumulou milhares de ferramentas, compiladores, frameworks e bibliotecas, com centenas de milhares de projetos de código aberto na comunidade, e está profundamente integrado em todos os principais ecossistemas.

Efeito de volante e base de instalação

A seguir, uma imagem que descreve praticamente toda a estratégia da Nvidia.

O mais difícil de implementar, e também de maior valor estratégico, é a base de instalação subjacente. Após 20 anos, construímos centenas de milhões de GPUs e sistemas de computação que rodam CUDA globalmente. Abrangemos todos os provedores de nuvem e fabricantes de computadores, atendendo quase todos os setores.

A base de instalação do CUDA é a razão fundamental do efeito de volante acelerado. Essa vasta base atrai desenvolvedores, que criam novos algoritmos, levando a avanços — como o nascimento do deep learning. Esses avanços abrem novos mercados, atraindo mais parceiros ecológicos, formando uma base de instalação ainda maior. Esse efeito de volante continua acelerando.

Atualmente, o download da biblioteca Nvidia cresce a uma velocidade surpreendente, e essa taxa de crescimento continua a aumentar. Essa dinâmica permite que a plataforma de computação sustente uma quantidade massiva de aplicações e inovações tecnológicas.

Mais importante, ela também confere uma vida útil extremamente longa à infraestrutura. A razão é simples: o CUDA da Nvidia pode rodar uma vasta gama de aplicações, cobrindo todas as fases do ciclo de vida da IA, plataformas de processamento de dados, e diversos solucionadores de princípios científicos. Assim, uma vez instalada uma GPU Nvidia, sua vida útil é altamente prolongada.

Isso explica por que a arquitetura Ampere, lançada há seis anos, ainda tem preços em alta na nuvem.

Ao mesmo tempo, com atualizações contínuas de software, os custos de computação continuam a cair — não só pelo aumento de desempenho na implantação inicial, mas também pelos efeitos de redução de custos a longo prazo proporcionados pelo aceleramento de cálculos. Como todas as GPUs são compatíveis na arquitetura, continuamos apoiando e mantendo cada GPU globalmente. Quanto maior a base de instalação, mais usuários se beneficiam de cada otimização.

Essa combinação dinâmica faz com que a arquitetura Nvidia expanda sua cobertura, acelere o crescimento e reduza continuamente os custos de computação, impulsionando uma nova rodada de crescimento.

O ponto de partida do CUDA: GeForce

A jornada do CUDA começou, na verdade, há 25 anos, com a GeForce.

A GeForce é a campanha de marketing mais bem-sucedida da Nvidia. Desde quando vocês eram jovens, sem poder de compra, começamos a atrair futuros clientes — na época, seus pais pagavam por vocês, ano após ano, até que um dia vocês se tornaram excelentes cientistas da computação, verdadeiros desenvolvedores.

Há 25 anos, inventamos o shader programável — o primeiro acelerador programável do mundo, e o início dos pixel shaders. Essa invenção nos impulsionou a explorar continuamente, e cinco anos depois nasceu o CUDA.

Expandir o CUDA do GeForce para cada computador foi um dos nossos maiores investimentos na época — mesmo sendo difícil de suportar, consumiu a maior parte do lucro da empresa. Acreditávamos em seu potencial; apesar das dificuldades iniciais, após 20 anos e 13 gerações de arquitetura, o CUDA está agora onipresente.

Há cerca de oito anos, lançamos a série RTX, que redesenhou completamente a arquitetura, introduzindo duas ideias inovadoras na época: ray tracing por hardware e renderização gráfica alimentada por IA. Assim como o GeForce trouxe IA ao mundo — permitindo que Alex Krizhevsky, Ilya Sutskever, Geoffrey Hinton, Andrew Ng e outros descobrissem que GPUs aceleram o deep learning, desencadeando a explosão de IA — hoje, a IA irá revolucionar completamente a computação gráfica.

Renderização neural: DLSS 5

Hoje, quero mostrar o futuro da tecnologia gráfica. Chamamos de renderização neural — a fusão de gráficos 3D com inteligência artificial, que é DLSS 5.

Impressionante, não é? Combinamos dados estruturados de 3D (estruturas do mundo virtual) com IA generativa (cálculo probabilístico): um totalmente previsível, o outro probabilístico, mas altamente realista. A combinação gera conteúdos que são ao mesmo tempo bonitos, realistas e totalmente controláveis.

A fusão de informações estruturadas e IA generativa se repetirá em diversos setores. Dados estruturados são a base para IA confiável.

Plataformas de dados estruturados e não estruturados

A próxima imagem pode surpreendê-los, mas peço que tenham paciência para ouvir até o fim.

Dados estruturados — SQL, Spark, Pandas, Velox, além de plataformas como Snowflake, Databricks, Amazon EMR, Azure Fabric, Google BigQuery — todos lidam com Data Frames. Esses Data Frames são como planilhas gigantes, contendo todas as informações de negócios, sendo a “fato de referência” para o cálculo empresarial.

Na era da IA, esses dados estruturados serão acessados rapidamente por IA, devendo ser acelerados ao máximo. No futuro, agentes de IA também usarão extensivamente bancos de dados estruturados.

Dados não estruturados representam a maior parte da informação mundial: vetores, PDFs, vídeos, áudios… Aproximadamente 90% das informações geradas anualmente globalmente são não estruturadas. No passado, esses dados eram quase inúteis — armazenávamos em sistemas de arquivos, mas não podíamos consultá-los ou pesquisá-los.

Agora, a IA mudou tudo isso. Assim como resolve problemas de percepção multimodal e compreensão, a tecnologia atual consegue ler PDFs, entender seu conteúdo e incorporá-los em estruturas maiores, que podem ser pesquisadas e consultadas.

Para isso, a Nvidia criou duas bibliotecas fundamentais:

cuDF: aceleração de Data Frames e dados estruturados

cuVS: aceleração de armazenamento vetorial, dados semânticos e dados não estruturados de IA

Essas plataformas se tornarão entre as mais importantes do futuro.

Hoje, anunciamos oficialmente várias parcerias:

IBM (criadora do SQL) usa cuDF para acelerar sua plataforma de dados WatsonX

Dell colaborou conosco na criação da Dell AI Data Platform, integrando cuDF e cuVS, especialmente para a era de IA

Google Cloud: aceleramos o Vertex AI e o BigQuery; por exemplo, ajudamos o Snapchat a reduzir seus custos computacionais em quase 80%

AWS: aceleramos EMR, SageMaker e Bedrock, e vamos integrar o OpenAI na AWS, impulsionando o consumo de nuvem em larga escala

Microsoft Azure: aceleramos o Azure AI Foundry, apoiamos profundamente o Bing e expandimos a implantação em regiões do Azure

CoreWeave: a primeira nuvem nativa de IA do mundo, criada para hospedagem de GPUs e inferência de IA

Oracle: somos o primeiro cliente de IA da Oracle

Palantir + Dell: parceria tripla, permitindo implantação de plataformas de IA em qualquer país, região isolada ou totalmente local

Estratégia central da Nvidia: integração vertical e abertura horizontal

A Nvidia é a primeira empresa de computação no mundo a ser integrada verticalmente e ao mesmo tempo aberta horizontalmente.

A aceleração de cálculos não é apenas uma questão de chips ou sistemas, mas de aplicação acelerada. Para trazer melhorias significativas em cada setor, é preciso entender profundamente as aplicações, os domínios e os algoritmos, e implementá-los em cada cenário de implantação — seja em data centers na nuvem, localmente, na borda ou em sistemas robóticos.

Por isso, a Nvidia precisa aprofundar-se em cada setor vertical. Compreendendo os algoritmos, os integramos às plataformas de computação, tornando-as acessíveis globalmente.

Nesta GTC, cobrimos quase todos os setores verticais do ecossistema Nvidia, incluindo:

Condução autônoma

Serviços financeiros (o setor com maior participação na GTC, com foco em desenvolvedores, não em traders)

Saúde (vivendo seu “momento ChatGPT”)

Indústria de manufatura

Entretenimento e jogos

Robótica (110 robôs expostos, quase todas as empresas de robótica colaborando com a Nvidia)

Telecomunicações (setor de cerca de 2 trilhões de dólares, com estações base evoluindo para infraestrutura de computação de borda de IA)

Anunciamos nesta conferência 100 bibliotecas e cerca de 40 atualizações de modelos. Essas bibliotecas são ativos centrais da empresa, essenciais para ativar plataformas de cálculo e resolver problemas práticos.

Uma das mais importantes é a cuDNN (CUDA Deep Neural Network Library), que revolucionou a inteligência artificial e impulsionou a explosão moderna de IA.

Ponto de inflexão na inferência

O que aconteceu nos últimos dois anos? Três grandes eventos impulsionaram tudo isso:

Primeiro: o início da era do ChatGPT e IA generativa (final de 2022 a 2023). IA que não só percebe e entende, mas também traduz, cria e gera conteúdo novo. O cálculo generativo mudou fundamentalmente a arquitetura e a lógica de construção dos computadores.

Segundo: o surgimento da IA de raciocínio (modelos o 1 e o 3). Essa IA permite reflexão, planejamento, decomposição de problemas complexos em etapas gerenciáveis, tornando a IA mais confiável e baseada em fatos. Isso elevou o uso do ChatGPT e aumentou drasticamente o volume de tokens de entrada e saída.

Terceiro: o nascimento do Claude Code e da IA Agentic. O primeiro modelo verdadeiramente Agentic, capaz de ler arquivos, escrever código, compilar, testar, avaliar e otimizar iterativamente. O Claude Code revolucionou a engenharia de software. Hoje, todos os engenheiros de software da Nvidia usam IA Agentic para programar.

A IA evoluiu de “percepção” para “geração”, de “geração” para “raciocínio” e de “raciocínio” para “execução” — agora, a IA consegue realizar trabalhos realmente produtivos.

O ponto de inflexão do raciocínio já chegou. Cada pensamento, execução, leitura e raciocínio da IA exige inferência, e a demanda por tokens cresce exponencialmente. Nos últimos dois anos, a necessidade de cálculo por tarefa aumentou cerca de 10.000 vezes, o uso aumentou cerca de 100 vezes, e a demanda total de cálculo quase 1 milhão de vezes.

De 500 bilhões a 1 trilhão de dólares

No GTC do ano passado, mencionei que prevíamos uma demanda de cerca de 500 bilhões de dólares até 2026, com alta confiabilidade, para Blackwell e Rubin.

Hoje, exatamente um ano após o GTC, posso afirmar com clareza: até 2027, essa demanda atingirá 1 trilhão de dólares.

E tenho certeza de que a demanda real de cálculo será ainda maior.

No ano passado, foi o “ano da inferência” da Nvidia. Esforçamo-nos ao máximo para garantir desempenho excelente em todas as fases do ciclo de vida da IA, além do treinamento, para que os investimentos em infraestrutura possam gerar valor a longo prazo.

Ficamos felizes em ver a Anthropic escolher a Nvidia, assim como a Meta SL. Modelos de código aberto estão cada vez mais avançados e presentes em todos os lugares. A Nvidia é atualmente a única plataforma de cálculo global capaz de cobrir todos os domínios de IA — linguagem, biologia, gráficos computacionais, visão computacional, fala, proteínas, química e robótica — em todos os cenários, do edge à nuvem.

Nossa arquitetura de “fungibilidade” torna-se a plataforma de menor custo e maior confiabilidade na construção de infraestrutura de IA. Quando você investe trilhões de dólares na infraestrutura, precisa de total confiança — a Nvidia é atualmente a única plataforma global que permite uma implantação confiável, seja na nuvem, local ou em qualquer país.

Atualmente, 60% dos nossos negócios vêm de cinco grandes provedores de nuvem, e os outros 40% de nuvens regionais, nuvens soberanas, empresas, indústrias, robótica, edge e supercomputação. Essa diversidade de cobertura é uma resiliência — a IA não é mais uma aplicação única, mas uma transformação real na plataforma de cálculo.

Avanços no desempenho de inferência

Conseguimos uma mudança fundamental na otimização de inferência:

Este é o mais completo teste de desempenho de IA de inferência já realizado (da Semi Analysis). Os critérios incluem:

Eixo vertical (tokens por watt): reflete a taxa de processamento. Cada data center é limitado pela energia; uma fábrica de 1 GW não pode virar 2 GW, devendo maximizar a produção de tokens dentro de uma energia limitada.

Eixo horizontal (velocidade de inferência/tokens por segundo): reflete a interatividade e a “inteligência” da IA. Quanto mais rápido, maior o modelo, maior o contexto, mais profundo o raciocínio — mais “inteligente” ele é.

Os resultados são surpreendentes:

De Hopper H200 a Grace Blackwell, a Lei de Moore previa um aumento de cerca de 1,5 vez, mas o desempenho real atingiu 35 vezes por watt. Dylan Patel, da Semi Analysis, até afirmou que os dados do meu relatório eram conservadores — na verdade, cerca de 50 vezes.

Isso significa que o custo por token da Nvidia é o mais baixo do mundo. Um data center de 1 GW custa cerca de 40 bilhões de dólares (amortizados em 15 anos); independentemente do custo fixo, é preciso instalar o sistema de cálculo mais eficiente para alcançar o menor custo por token. Atualmente, ninguém supera isso.

Por exemplo, a Fireworks AI: após atualização de software, a taxa de tokens por segundo aumentou de cerca de 700 para quase 5.000, um aumento de 7 vezes. Essa é a força de um design de colaboração extrema.

Lógica de negócio da fábrica de tokens:

No futuro, cada provedor de nuvem e empresa de IA avaliará seus negócios sob a perspectiva da fábrica de tokens. Diferentes taxas de tokens correspondem a diferentes níveis de serviço e preços:

Camada gratuita: alta taxa de processamento, baixa velocidade

Camada básica: cerca de US$3 por milhão de tokens

Camada padrão: cerca de US$6 por milhão de tokens

Camada avançada: cerca de US$45 por milhão de tokens

Camada premium: cerca de US$150 por milhão de tokens (alta velocidade, contexto longo, modelos maiores)

Por exemplo, com Grace Blackwell: em relação ao Hopper, na camada de serviço mais valiosa, a taxa de processamento aumentou 35 vezes, ampliando significativamente a capacidade de monetização e elevando o lucro do data center em cerca de 5 vezes.

Vera Rubin: próxima geração de arquitetura

Hoje, não apresento mais apenas um chip — apresento todo o sistema: Vera Rubin.

Vera Rubin foi projetada especificamente para sistemas Agentic, com lógica muito clara:

Modelos de linguagem grandes ficarão cada vez maiores, gerando mais tokens e pensando mais rápido;

Agentes de IA acessarão frequentemente memória (KV Cache), dados estruturados (cuDF) e dados não estruturados (cuVS);

Os sistemas de armazenamento suportarão grande pressão de acesso;

Ferramentas exigirão CPU com desempenho de thread único extremamente alto.

Para isso, criamos a Vera CPU — o único CPU de data center do mundo que usa LPDDR5, com desempenho de thread único elevado, excelente capacidade de processamento de dados e eficiência energética incomparável.

Principais características do sistema Vera Rubin:

100% resfriado a líquido, com cabos significativamente simplificados

Tempo de instalação reduzido de dois dias para duas horas

Resfriamento com água a 45°C, reduzindo drasticamente o consumo de energia de refrigeração do data center

Equipado com o sistema de troca NVLink de sexta geração (único no mundo) — totalmente resfriado a líquido, uma realização extremamente difícil, orgulho da equipe

Primeiro switch CPO Spectrum-X (com encapsulamento óptico) em produção: integração direta de fotônicos no chip, sinal eletrônico convertido em fotônico, conexão direta ao chip. Desenvolvido em parceria com TSMC, somos os únicos a produzir em escala, chamado “CoOP”, uma inovação revolucionária.

As séries de CPUs também estão em produção, com potencial para se tornar um negócio de bilhões de dólares.

Rubin Ultra (versão super):

O Rubin Ultra usa a nova estrutura “Kyber”, suportando 144 GPUs em um único domínio NVLink. Os nós de computação são inseridos pela frente, com switches NVLink conectados por uma placa traseira, formando um supercomputador.

Em roteiro tecnológico:

Blackwell (atual): sistema Oberon, suporte a NVLink 72

Vera Rubin: estrutura Kyber (NVLink 144) + extensão de cobre/óptica até NVLink 576

Vera Rubin Ultra: chip Rubin Ultra + LP 35 (primeira implementação da estrutura de cálculo NVFP 4)

Feynman (próxima geração): nova GPU + LP 40 + CPU Rosa (Rosen) + Bluefield 5 + CX 10 + extensão de cobre e CPO dual-mode

Aquisição Grok e avanços em raciocínio heterogêneo

Adquirimos a equipe técnica da Grok e obtivemos licença tecnológica para integração profunda.

Características principais do processador Grok:

Processador de fluxo de dados determinístico, compilação estática, agendado por compilador

Dados e cálculo chegam simultaneamente, agendamento totalmente por software, sem agendamento dinâmico

Grande SRAM, projetado especificamente para carga de trabalho de inferência

Limitado a 500 MB de armazenamento por chip (comparado a 288 GB do Rubin), incapaz de acomodar grandes modelos e KV Cache, limitando sua escala — até que tivemos uma ideia brilhante.

Dynamo: estrutura de desacoplamento de inferência

Desenvolvemos o software Dynamo, que reestruturou o fluxo de inferência:

Fase de pré-carregamento (Prefill): executada no Vera Rubin (requer muita capacidade de cálculo)

Cálculo de atenção na fase de decodificação (Decode): executado no Vera Rubin (requer muita capacidade)

Geração de tokens e rede feedforward na fase de decodificação: executado no chip Grok (requer alta largura de banda e baixa latência)

Duas arquiteturas distintas — uma otimizada para alta taxa de processamento, outra para baixa latência — integradas pelo Dynamo, reduzindo a latência em cerca de 50%.

Resultado: na camada de serviço mais valiosa, desempenho melhorou 35 vezes, abrindo uma nova dimensão de inferência de alto desempenho até então inexplorada.

Grok LP 30, fabricado pela Samsung, já em produção, com previsão de início de entrega no terceiro trimestre de 2026.

Estratégia de implantação ideal do Grok:

Se a carga de trabalho prioriza alta taxa de processamento: 100% Vera Rubin

Se há grande demanda por geração de código de alto valor ou tokens em alta velocidade: recomenda-se 25% de capacidade em Grok, restante em Vera Rubin.

Escala e perspectivas da fábrica de IA

Em uma fábrica de um gigawatt, em apenas dois anos, com otimizações de arquitetura, a taxa de geração de tokens passará de 22 milhões para 700 milhões, um aumento de 350 vezes.

Essa é a força do design de colaboração extrema — integração vertical e abertura horizontal, compartilhando os frutos com todos.

À medida que a escala da fábrica de IA cresce rapidamente, identificamos uma questão-chave: fornecedores de tecnologia nos data centers, que antes operavam de forma independente, agora precisam colaborar, pois a falta de integração gera enorme desperdício de energia.

Para resolver isso, criamos a plataforma Nvidia DSX, baseada na Omniverse, permitindo que parceiros projetem conjuntamente fábricas de IA de gigawatt em um mundo virtual — incluindo simulações completas de mecânica, gerenciamento térmico, elétrica e rede, conectadas à rede elétrica em tempo real, otimizando dinamicamente consumo e refrigeração com Max-Q.

Acreditamos que essa plataforma pode dobrar a eficiência — um valor enorme em uma escala de trilhões de dólares.

Além disso, a Nvidia avançará para o espaço: o chip Thor foi certificado para radiação, sendo implantado em satélites. Estamos desenvolvendo Vera Rubin Space-1, para construir data centers no espaço (enfrentando desafios de dissipação de calor por radiação).

OpenClaw: sistema operacional para agentes de IA

Agora, uma grande novidade.

Peter Steinberger criou um software chamado OpenClaw. Tornou-se o projeto open source mais popular de todos os tempos, superando em velocidade de disseminação os 30 anos do Linux em poucas semanas.

O que é o OpenClaw? É um sistema Agentic capaz de:

Conectar grandes modelos de linguagem

Acessar ferramentas e sistemas de arquivos

Executar agendamento e tarefas programadas

Decompor problemas em subtarefas sequenciais

Gerar e invocar sub-agentes

Suportar interação multimodal (texto, voz, gestos, etc.)

Em outras palavras, o OpenClaw é o sistema operacional de computadores Agentic. Assim como o Windows tornou possível o uso de PCs, o OpenClaw torna possível agentes pessoais.

A questão central de cada empresa agora é: qual é sua estratégia OpenClaw?

Assim como no passado cada empresa precisava de uma estratégia de Linux, HTTP/HTML ou Kubernetes, hoje toda empresa deve ter uma estratégia de OpenClaw e sistemas Agentic.

Transformação do paradigma de TI empresarial:

Modo antigo: armazenamento de arquivos no data center → ferramentas de software → uso por humanos

Modo novo: cada SaaS será uma AaaS (Agentic as a Service), oferecendo serviços especializados de agentes.

Porém, sistemas Agentic internos apresentam riscos de segurança: podem acessar informações sensíveis, executar códigos e comunicar-se externamente. Para isso, colaboramos com Peter Steinberger e especialistas globais em segurança para desenvolver a versão empresarial do OpenClaw, baseada na tecnologia de segurança OpenShell, com motor de políticas, barreiras de rede e roteadores de privacidade, criando uma arquitetura de referência segura, chamada NemoClaw, disponível para download.

Plano de modelos abertos da Nvidia

A Nvidia consolidou liderança em modelos de ponta em todos os domínios de IA:

Modelo

Domínio

Nemotron

Modelos de linguagem grandes

Cosmos

Modelos fundamentais globais

GROOT

Modelo de robótica geral

Alpamayo

Condução autônoma

BioNeMo

Biologia digital / descoberta de medicamentos

PhysicsNeMo

Simulação física de IA

Hoje, anunciamos oficialmente a criação da aliança Nemotron, em parceria com:

BlackForest Labs (geração de imagens)

Cursor (edição de código)

LangChain (framework de construção de agentes personalizados, com bilhões de downloads)

Mistral (grande modelo de código aberto)

Perplexity (busca de IA)

Reflection (sistema multimodal Agentic)

Sarvam (empresa indiana de IA)

Thinking Machines (laboratório fundado por Mira Murati)

Essas empresas colaboram conosco para integrar profundamente o design de referência NemoClaw, o pacote de ferramentas de IA Agentic da Nvidia e toda a série de modelos abertos em seus produtos e serviços.

IA física e robótica

Além de agentes digitais, há um foco de longa data na IA física e robótica.

Criamos três computadores essenciais para sistemas robóticos:

Computador de treinamento

Computador de geração de dados sintéticos e simulação

Computador embarcado no robô

Colaboramos profundamente com Siemens, Cadence e outros parceiros, e anunciamos várias parcerias importantes:

Condução autônoma: o “momento ChatGPT” na direção autônoma já chegou. Anunciamos quatro novos parceiros RoboTaxi: BYD, Hyundai, Nissan e Geely, além de Mercedes, Toyota e GM, produzindo juntos 18 milhões de veículos por ano, integrados à plataforma RoboTaxi Ready da Nvidia. Também firmamos parceria com Uber para implantar RoboTaxis em várias cidades.

Robótica industrial: colaboramos com ABB, Universal Robots, KUKA e Caterpillar, integrando modelos de IA física e sistemas de simulação às linhas de produção globais.

Telecomunicações: T-Mobile também está conosco — futuras estações base evoluirão para infraestrutura de computação de borda de IA, com inferência dinâmica e ajuste de feixes para melhorar sinal e economizar energia.

Por fim, apresentamos o robô “Olaf”, desenvolvido em parceria com a Disney — baseado na plataforma Jetson, ambiente de treinamento Omniverse, e no solucionador físico Newton, desenvolvido em colaboração com Disney e DeepMind, operando no ambiente de física real, com movimento adaptativo. Uma demonstração do futuro do IA física e uma prévia de parques temáticos do amanhã.

Resumo

Nesta GTC, abordamos quatro temas centrais:

Ponto de inflexão na inferência — IA que evolui de “entender” para “gerar”, de “gerar” para “raciocinar” e de “raciocinar” para “trabalhar”, com demanda de cálculo crescendo milhões de vezes, marcando o ponto de inflexão;

Fábrica de IA — data centers evoluindo de armazenamento de arquivos para produção de tokens, com Vera Rubin elevando a receita em cerca de 5 vezes em cada camada de serviço;

Revolução dos agentes com OpenClaw — transformação profunda na TI empresarial, com cada empresa precisando de uma estratégia de agentes, e NemoClaw oferecendo uma referência segura;

IA física e robótica — condução autônoma, robôs industriais e humanoides, marcando a chegada da era da IA física.

Desejo a todos uma excelente GTC, obrigado!

Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
Adicionar um comentário
Adicionar um comentário
Sem comentários
  • Marcar