Nvidia Lanza Nemotron 3 Super en Medio de una Apuesta de $26 Mil Millones en Modelos de IA Abiertos—¿La Respuesta de América a Qwen?

Decrypt

En breve

  • Nvidia lanzó Nemotron 3 Super, un modelo de IA abierto de 120B optimizado para agentes autónomos y tareas de contexto ultra largo.
  • La arquitectura híbrida Mamba-Transformer MoE ofrece un razonamiento más rápido y más de 5 veces la capacidad de procesamiento mientras funciona con precisión de 4 bits.
  • La inversión de Nvidia de 26 mil millones de dólares en IA de código abierto busca contrarrestar el auge de China en el campo.

Nvidia acaba de lanzar Nemotron 3 Super, un modelo abierto de 120 mil millones de parámetros diseñado para hacer una sola cosa bien: ejecutar agentes de IA autónomos sin agotar tu presupuesto de computación. Eso no es un problema menor. Los sistemas multi-agente generan muchos más tokens que un chat normal: cada llamada a herramienta, paso de razonamiento y fragmento de contexto se vuelven a enviar desde cero. Como resultado, los costos se disparan, los modelos tienden a desviarse y los agentes olvidan lentamente lo que se suponía que debían hacer en primer lugar… o al menos disminuyen en precisión. Nemotron 3 Super es la respuesta de Nvidia a todo eso. El modelo ejecuta 12 mil millones de parámetros activos de un total de 120 mil millones, usando un diseño de mezcla de expertos (MoE) que mantiene la inferencia económica mientras conserva la profundidad de razonamiento que requieren flujos de trabajo complejos. Cuenta con una ventana de contexto de 1 millón de tokens, por lo que los agentes pueden mantener toda una base de código, o casi 750,000 palabras en memoria antes de colapsar.

Para construir su modelo, Nvidia combinó tres componentes que rara vez aparecen juntos en la misma arquitectura: capas de espacio de estado Mamba-2—una alternativa más rápida y eficiente en memoria a la atención para manejar flujos largos de tokens—junto con capas de atención Transformer para una recuperación precisa, y un nuevo diseño “Latent MoE” que comprime las incrustaciones de tokens antes de enviarlas a los expertos. Esto permite activar cuatro veces más especialistas con el mismo costo computacional.

Presentamos NVIDIA Nemotron 3 Super 🎉

Modelo híbrido Mamba-Transformer MoE de 120B parámetros (12B activos) abierto

Contexto nativo de 1M de tokens

Diseñado para aplicaciones multi-agente eficientes en cómputo y de alta precisión

Además, pesos, conjuntos de datos y recetas completamente abiertos para fácil personalización y… pic.twitter.com/kMFI23noFc

— NVIDIA AI Developer (@NVIDIAAIDev) 11 de marzo de 2026

El modelo también fue preentrenado de forma nativa en NVFP4, el formato de punto flotante de 4 bits de Nvidia. En la práctica, eso significa que el sistema aprendió a operar con precisión en aritmética de 4 bits desde la primera actualización de gradiente, en lugar de ser entrenado en alta precisión y comprimido después, lo cual a menudo causa pérdida de precisión en los modelos. Para contextualizar, la precisión de un modelo se mide en bits. La precisión completa, conocida como FP32, es el estándar de oro—pero también es extremadamente costosa de ejecutar a gran escala. Los desarrolladores a menudo reducen la precisión para ahorrar cómputo, intentando mantener un rendimiento útil.

Piensa en ello como reducir una imagen 4K a 1080p: la imagen todavía parece igual a simple vista, solo con menos detalles. Normalmente, reducir de 32 bits a 4 bits paraliza la capacidad de razonamiento de un modelo. Nemotron evita ese problema aprendiendo a operar en baja precisión desde el principio, en lugar de ajustarse a ella después.

En comparación con su predecesor, Nemotron 3 Super ofrece más de cinco veces la capacidad de procesamiento. Frente a rivales externos, es 2.2 veces más rápido que GPT-OSS 120B de OpenAI en capacidad de inferencia, y 7.5 veces más rápido que Qwen3.5-122B de Alibaba. Realizamos una prueba rápida propia. El razonamiento se mantuvo bien, incluso en indicaciones deliberadamente vagas, mal redactadas o basadas en información incorrecta. El modelo detectó pequeños errores en el contexto sin que se le pidiera, manejó problemas matemáticos y lógicos de manera clara, y no se desmoronó cuando la pregunta en sí era ligeramente incorrecta.

El proceso completo de entrenamiento es público: pesos en Hugging Face, 10 billones de tokens curados durante el preentrenamiento en un total de 25 billones, 40 millones de muestras post-entrenamiento y recetas de aprendizaje por refuerzo en 21 configuraciones de entorno. Perplejidad, Palantir, Cadence y Siemens ya están integrando el modelo en sus flujos de trabajo. La apuesta de 26 mil millones de dólares El modelo puede ser una pieza de una estrategia más grande. Un informe financiero de 2025 muestra que Nvidia planea gastar 26 mil millones de dólares en los próximos cinco años en construir modelos de IA de peso abierto. Los ejecutivos también lo confirmaron. Bryan Catanzaro, vicepresidente de investigación en aprendizaje profundo aplicado, dijo a Wired que la compañía acaba de terminar el preentrenamiento de un modelo de 550 mil millones de parámetros. Nvidia lanzó su primer modelo Nemotron en noviembre de 2023, pero ese informe deja claro que esto ya no es un proyecto secundario.

La inversión es estratégica considerando que los chips de Nvidia siguen siendo la infraestructura predeterminada para entrenar y ejecutar modelos de frontera. Los modelos ajustados a su hardware ofrecen a los clientes una razón incorporada para mantenerse en Nvidia, a pesar de los esfuerzos de los competidores por usar otro hardware. Pero hay una presión más urgente detrás de esto: Estados Unidos está perdiendo la carrera del código abierto en IA, y la está perdiendo rápidamente. Los modelos abiertos chinos pasaron de apenas el 1.2% del uso global de modelos abiertos a finales de 2024 a aproximadamente el 30% para fines de 2025, según investigaciones de OpenRouter y Andreessen Horowitz. Qwen de Alibaba superó a Llama de Meta como el modelo de código abierto más utilizado, según Runpod. Empresas estadounidenses como Airbnb lo adoptaron para atención al cliente. Startups en todo el mundo están construyendo sobre él. Más allá de la cuota de mercado, esa adopción crea dependencias de infraestructura que son difíciles de revertir. Mientras gigantes estadounidenses como OpenAI, Anthropic y Google mantienen sus mejores modelos bloqueados tras APIs, laboratorios chinos como DeepSeek y Alibaba han estado inundando el ecosistema abierto. Meta fue la única gran compañía estadounidense compitiendo en código abierto con Llama, pero Zuckerberg recientemente indicó que la compañía podría no hacer futuros modelos completamente abiertos. La brecha entre el “mejor modelo propietario” y el “mejor modelo abierto” solía ser enorme—y en favor de EE. UU. Esa brecha ahora es muy pequeña, y el lado abierto de la balanza es cada vez más chino.

Gráfico increíble. En solo un año, China superó completamente a EE. UU. en modelos de IA gratuitos.

Hoy en día, ningún modelo estadounidense en el top 5, cuando el año pasado los 3 primeros eran todos estadounidenses. pic.twitter.com/34ErpBv8rg

— Arnaud Bertrand (@RnaudBertrand) 14 de octubre de 2025

También hay una amenaza de hardware debajo de todo esto. Se espera que un nuevo modelo de DeepSeek se lance pronto, y se rumorea que ha sido entrenado completamente en chips fabricados por Huawei—una compañía china sancionada. Si se confirma, eso daría a desarrolladores de todo el mundo, especialmente en China, una razón concreta para comenzar a probar el hardware de Huawei. Ziphu AI de China ya está haciendo eso. Ese es el escenario que Nvidia necesita evitar a toda costa: modelos abiertos chinos y chips chinos construyendo un ecosistema que no necesite a Nvidia en absoluto.

Ver originales
Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.
Comentar
0/400
Sin comentarios