Durante la conferencia CES, la nueva arquitectura Rubin de NVIDIA se convirtió en el centro de atención en las discusiones del mercado reciente, además de ser otro gran avance más allá de la arquitectura MOE, diseñada específicamente para la era de la AI Agentic, entre otros temas. Después de profundizar en ello, realmente sentí el sabor de la "revolución personal" de Jensen Huang:



1)En el pasado, NVIDIA dependía de su ventaja en hardware GPU, aprovechando el período de bonanza en el que los grandes gigantes de la AI estaban comprando masivamente capacidad de cálculo para entrenar grandes modelos. En ese entonces, la lógica era simple: cuantos más gráficos tengas, mejor podrás entrenar tus modelos.

Pero ahora, la guerra de la AI se ha desplazado del "cálculo" al "razonamiento", especialmente con la llegada de la era Agentic, donde la AI necesita manejar razonamientos de alta frecuencia, múltiples pasos y contextos extremadamente largos.

En este momento, los modelos tienen billones de parámetros, el volumen de datos es enorme, y por mucho que la GPU sea rápida, si la memoria no transfiere datos lo suficientemente rápido, la GPU se quedará ociosa. Esto es lo que llamamos la "pared de capacidad de memoria". En otras palabras, tener muchas tarjetas gráficas ya no resuelve el problema; se necesita también una alta capacidad de memoria y ancho de banda para soportarlo. Rubin busca resolver precisamente este problema.

2)Por eso, el HBM4 de Rubin, que es la primera implementación, soporta la cuarta generación de memoria de alta ancho de banda, alcanzando un ancho de banda de 22TB/s. Pero lo más importante es que, junto con la tecnología NVLink 6 (que ofrece un ancho de banda de 260TB/s en el rack), convierte 72 tarjetas en un "un solo chip gigante" en lógica.

¿Y qué significa esto? Antes, cuando comprabas una tarjeta gráfica, adquirías componentes independientes, y la transferencia de datos entre tarjetas era como un servicio de mensajería que pasa por varias estaciones de transferencia. Ahora, Rubin, mediante una interconexión de densidad extremadamente alta, hace que los datos fluyan entre diferentes GPU casi sin sentir la distancia física. Los 72 "trabajadores" ya no trabajan por separado, sino que comparten un mismo cerebro.

Creo que esa es la verdadera carta ganadora de Rubin: no solo acumular hardware, sino reestructurar el flujo de datos en todo el sistema.

3)Si el MOE (arquitectura de modelos de expertos híbridos) fue un golpe de reducción de dimensión contra la estrategia de "montar tarjetas" de NVIDIA, impulsada por empresas emergentes como DeepSeek, entonces Rubin parece ser una contraofensiva estratégica de Jensen Huang. No se trata de competir en quién ahorra más tarjetas, sino de reestructurar directamente los costos de uso de la AI. Por supuesto, esta estrategia también implica que NVIDIA está diciendo adiós al viejo modelo de "montar tarjetas en masa".

Jensen Huang calcula otra cuenta: para que la era Agentic realmente se implemente en todos los sectores, hay que superar el costo de los tokens, una tendencia inevitable que NVIDIA no puede detener.

Desde su perspectiva, en lugar de esperar a que grandes empresas como Google o Meta desarrollen sus propios chips y acaben con el mercado, o que empresas como DeepSeek revolucionen el mercado de la oferta con nuevos modelos, sería mejor ser quien rompa el statu quo activamente.

4)La pregunta es, ¿cómo debe NVIDIA, tras su revolución interna, posicionarse? La ruta también está bastante clara: pasar de "vender tarjetas gráficas" a "vender sistemas", de servir solo a unos pocos grandes clientes a hacer que la AI sea verdaderamente popular.

Antes, comprar un H100 significaba que NVIDIA ganaba principalmente con esa tarjeta. En el futuro, Rubin te dirá: necesitas comprar toda la infraestructura NVL72 — 72 GPU, conmutador NVLink, sistema de enfriamiento líquido completo, armario, e incluso la pila de software asociada, todo empaquetado y vendido como un paquete.

El plan de Jensen también es muy claro: aunque el costo del hardware empaquetado parece más alto, añade una eficiencia de razonamiento extrema, reduciendo el costo unitario de uso de la AI para los compradores, y naturalmente, sin perder cuota de mercado.

Pero, pero, pero, esta estrategia también eleva la barrera de entrada para los jugadores medianos y pequeños. Solo las grandes empresas y los proveedores de servicios en la nube podrán permitírselo, lo que agravará aún más el monopolio en capacidad de cálculo. En el contexto actual de competencia, esto puede considerarse una apuesta arriesgada, porque si la producción en masa de HBM4 presenta problemas, será reemplazada por soluciones alternativas lanzadas por AMD, Google TPU, etc., y el sueño de NVIDIA de vender sistemas podría no ser tan fácil de realizar.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
0/400
Sin comentarios
  • Anclado

Opera con criptomonedas en cualquier momento y lugar
qrCode
Escanea para descargar la aplicación de Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)