DeepSeek V4 anuncia que abandona NVIDIA!¿Hasta dónde ha llegado la batalla por la «independencia de la potencia de cálculo» en la IA china?

動區BlockTempo

DeepSeek anuncia que su nueva generación de modelos V4 adoptará completamente chips nacionales, dejando de depender de GPUs de NVIDIA. Desde el incidente de ZTE hasta las tres rondas de prohibiciones de chips, la industria de IA en China avanza en tres frentes simultáneos: optimización algorítmica, sustitución por productos nacionales y expansión de tokens al extranjero.
(Resumen previo: Lao Gao habla de DeepSeek: nunca copió a ChatGPT, sino que utilizó tecnología de base para sortear la plataforma CUDA de NVIDIA)
(Información adicional: ¡FBI y Casa Blanca investigan! Sospechan que DeepSeek obtiene chips de NVIDIA a través de intermediarios en Singapur)

Hace ocho años, ZTE sufrió un paro cardíaco. El 16 de abril de 2018, una orden del Departamento de Comercio de EE. UU. paralizó a ZTE, que con 80,000 empleados y más de mil millones de dólares en ingresos anuales, era el cuarto mayor proveedor mundial de dispositivos de comunicación, en una noche. La orden prohibía a cualquier empresa estadounidense vender componentes, productos, software y tecnología a ZTE durante siete años.

Sin chips de Qualcomm, las estaciones base dejaron de producirse. Sin la licencia de Android de Google, los teléfonos no tenían sistema operativo funcional. A los 23 días, ZTE emitió un comunicado diciendo que sus principales actividades comerciales no podían continuar.

Finalmente, ZTE sobrevivió, pero a un costo de 1.4 mil millones de dólares.

Pagó una multa de 1,0 mil millones de dólares en un solo pago, y depositó 400 millones en una cuenta de fideicomiso en EE. UU. Además, cambió a toda su alta dirección y aceptó la supervisión de un equipo de cumplimiento estadounidense. En 2018, ZTE registró una pérdida neta de 7 mil millones de yuanes y una caída del 21.4% en ingresos.

El entonces presidente de ZTE, Yin Yimin, escribió en una carta interna: “Estamos en una industria compleja y altamente dependiente de la cadena de suministro global”. Esa frase, en ese momento, era una reflexión y también una expresión de impotencia.

Ocho años después, el 26 de febrero de 2026, la startup china de IA DeepSeek anunció que su modelo multimodal V4, que pronto lanzará, priorizará la colaboración con fabricantes nacionales de chips, logrando por primera vez un proceso completo, desde preentrenamiento hasta ajuste fino, sin usar soluciones de NVIDIA.

En otras palabras: ya no usamos NVIDIA.

Al conocerse la noticia, la reacción inicial del mercado fue de escepticismo. NVIDIA tiene más del 90% del mercado global de chips para entrenamiento de IA. ¿Es racional abandonar esa posición en el negocio?

Pero la decisión de DeepSeek oculta un problema más profundo que la lógica comercial: ¿Qué tipo de independencia de potencia computacional necesita realmente la IA en China?

Muchos creen que las prohibiciones de chips bloquean el hardware. Pero lo que realmente asfixia a las empresas de IA chinas es algo llamado CUDA.

CUDA, que significa Compute Unified Device Architecture, es una plataforma de cálculo paralelo y modelo de programación lanzado por NVIDIA en 2006. Permite a los desarrolladores acceder directamente a la potencia de las GPU de NVIDIA para acelerar cálculos complejos.

Antes de la era de la IA, era solo una herramienta para unos pocos entusiastas. Pero con la llegada del aprendizaje profundo, CUDA se convirtió en la base de toda la industria de IA.

Entrenar modelos grandes de IA implica realizar matrices de cálculos masivos, tarea en la que las GPU son insuperables.

Gracias a una estrategia de más de una década, NVIDIA construyó con CUDA una cadena de herramientas completa, desde hardware hasta aplicaciones, que conecta a desarrolladores en todo el mundo. Hoy, todos los principales frameworks de IA, desde TensorFlow de Google hasta PyTorch de Meta, están profundamente ligados a CUDA.

Un doctor en IA, desde su primer día, aprende, programa y experimenta en un entorno CUDA. Cada línea de código refuerza la posición de NVIDIA.

Para 2025, el ecosistema CUDA cuenta con más de 4.5 millones de desarrolladores, soporta más de 3,000 aplicaciones aceleradas por GPU y más de 40,000 empresas en todo el mundo lo utilizan. Esto significa que más del 90% de los desarrolladores de IA globales están ligados a la ecosistema de NVIDIA.

CUDA funciona como un volante de inercia: cuanta más gente lo usa, más herramientas, librerías y código se generan, enriqueciendo el ecosistema. Cuanto más robusto, más desarrolladores se atraen. Una vez en marcha, es casi imposible detener esa rueda.

El resultado: NVIDIA vende las herramientas más caras y define la única postura para minería. Cambiar de herramienta requiere reescribir toda la experiencia acumulada en los últimos años por decenas de miles de mentes brillantes.

¿Quién paga ese costo?

Por eso, cuando en octubre de 2022, la primera ronda de controles del BIS restringió la exportación a China de las GPU A100 y H100 de NVIDIA, las empresas chinas de IA sintieron por primera vez una asfixia similar a la de ZTE. NVIDIA lanzó versiones “especiales para China”, como A800 y H800, con menor ancho de banda, para mantener el suministro.

Pero solo un año después, en octubre de 2023, la segunda ronda de controles fue aún más estricta, prohibiendo A800 y H800, y colocando a 13 empresas chinas en la lista de entidades. NVIDIA tuvo que lanzar versiones aún más recortadas, como H20. Para diciembre de 2024, en la última ronda de controles durante la administración Biden, incluso la exportación de H20 quedó severamente restringida.

Tres rondas de control, cada vez más estrictas.

Pero esta vez, el rumbo es muy diferente al de ZTE.

Bajo estas prohibiciones, todos pensaron que el sueño de modelos grandes de IA en China terminaría allí.

Pero estaban equivocados. Frente a las restricciones, las empresas chinas no optaron por enfrentarse frontalmente, sino que comenzaron a buscar una salida. La primera línea de esa estrategia no fue el hardware, sino los algoritmos.

A finales de 2024 y en 2025, las empresas chinas de IA se enfocaron en modelos híbridos de expertos.

En esencia, dividir un modelo gigante en muchos pequeños “expertos”, activando solo los más relevantes para cada tarea, en lugar de hacer funcionar todo el modelo completo.

DeepSeek V3 es un ejemplo típico de esta estrategia. Tiene 671 mil millones de parámetros, pero en cada inferencia solo activa 37 mil millones, el 5.5% del total. En entrenamiento, usó 2,048 GPU H800 de NVIDIA durante 58 días, con un costo total de 5.576 millones de dólares. En comparación, se estima que entrenar GPT-4 costó unos 78 millones de dólares, una diferencia de un orden de magnitud.

La optimización algorítmica extrema se refleja en el precio: la API de DeepSeek cuesta entre 0.028 y 0.28 dólares por millón de tokens de entrada, y 0.42 dólares por salida. En cambio, GPT-4 cuesta 5 dólares por entrada y 15 dólares por salida; Claude Opus, aún más caro, cuesta 15 y 75 dólares respectivamente. En términos relativos, DeepSeek es de 25 a 75 veces más barato que Claude.

Esta diferencia de precio ha tenido un impacto enorme en el mercado global de desarrolladores. En febrero de 2026, en la plataforma de API de modelos de IA más grande del mundo, OpenRouter, las llamadas a modelos chinos aumentaron un 127% en tres semanas, superando por primera vez a EE. UU. Hace un año, los modelos chinos representaban menos del 2% en esa plataforma. Un año después, crecieron un 421%, acercándose al 60%.

Detrás de estos datos hay un cambio estructural que a menudo se pasa por alto: desde la segunda mitad de 2025, los escenarios principales de aplicaciones de IA pasaron de chat a agentes.

En estos escenarios, el consumo de tokens por tarea es de 10 a 100 veces mayor que en una simple conversación. Cuando el consumo de tokens crece exponencialmente, el precio se vuelve decisivo. La relación precio-eficacia de los modelos chinos, en ese contexto, fue clave.

Pero reducir los costos de inferencia no resuelve el problema fundamental del entrenamiento. Un modelo grande que no pueda actualizarse y entrenarse continuamente con datos recientes, pierde rápidamente capacidad. Y el entrenamiento sigue siendo un agujero negro en potencia computacional.

¿De dónde vendrán las “herramientas” para entrenar?

En Xinghua, Jiangsu, una pequeña ciudad conocida por acero inoxidable y alimentos saludables, nada relacionado con IA. Pero en 2025, se construyó una línea de producción de servidores de chips nacionales de 148 metros de longitud, en solo 180 días desde la firma del contrato.

El núcleo de esa línea son dos chips completamente nacionales: el procesador Longxin 3C6000 y la tarjeta aceleradora Tai Chu Yuan Qi T100. El Longxin 3C6000 es completamente desarrollado en China, desde el conjunto de instrucciones hasta la microarquitectura. La tarjeta Tai Chu Yuan Qi, derivada del centro de supercomputación Wuxi y del equipo de Tsinghua, usa una arquitectura heterogénea de múltiples núcleos.

Con capacidad plena, produce un servidor cada 5 minutos. La inversión total en esta línea es de 1,1 mil millones de yuanes, con una producción anual prevista de 100,000 unidades.

Más importante aún, esa línea de producción, basada en estos chips nacionales, ya está asumiendo tareas reales de entrenamiento de grandes modelos.

En enero de 2026, Zhipu AI, en colaboración con Huawei, lanzó GLM-Image, el primer modelo de generación de imágenes de estado del arte (SOTA) entrenado completamente con chips nacionales. En febrero, el modelo “Xingchen” de China Telecom, de más de 100 mil millones de parámetros, completó su entrenamiento en un pool de chips nacionales en Shanghai.

Estos casos demuestran que los chips nacionales ya han superado la etapa de solo inferencia y ahora también pueden entrenar modelos grandes. Es un cambio cualitativo. La inferencia solo requiere ejecutar modelos ya entrenados, con menores demandas. Pero el entrenamiento necesita manejar datos masivos, cálculos complejos de gradientes y actualizaciones de parámetros, exigiendo mucho más en potencia, ancho de banda y ecosistema de software.

El núcleo de estas tareas son los chips de Huawei, en particular la serie Ascend. Para fines de 2025, el ecosistema Ascend cuenta con más de 4 millones de desarrolladores, más de 3,000 socios, y 43 modelos grandes de la industria entrenados con Ascend, además de más de 200 modelos de código abierto adaptados. En el MWC de marzo de 2026, Huawei presentó en el extranjero su nueva base de computación SuperPoD.

El Ascend 910B, con capacidad FP16, ya compite con el A100 de NVIDIA. Aunque aún hay diferencia, ya pasó de ser inutilizable a usable, y de usable a eficiente. La construcción del ecosistema no puede esperar a que los chips sean perfectos; debe comenzar a gran escala en etapas suficientes, impulsada por las necesidades reales del negocio. Empresas como ByteDance, Tencent y Baidu duplicaron sus compras de servidores nacionales en 2026 respecto al año anterior. Según datos del Ministerio de Industria y Tecnología de la Información, la escala de computación inteligente en China alcanzó los 1590 EFLOPS. 2026 será el año en que la infraestructura de chips nacionales se despliegue en masa.

A principios de 2026, Virginia, que soporta gran parte del tráfico de centros de datos globales, suspendió la aprobación de nuevos proyectos de construcción de data centers. Georgia siguió, y la suspensión se extendió hasta 2027. Illinois y Michigan también implementaron restricciones.

Según la Agencia Internacional de Energía, en 2024, el consumo eléctrico de los centros de datos en EE. UU. alcanzó 183 TWh, aproximadamente el 4% del consumo total del país. Para 2030, se estima que se duplicará a 426 TWh, superando el 12%. El CEO de Arm predice que, para 2030, los centros de datos de IA consumirán entre el 20% y el 25% de la electricidad de EE. UU.

La red eléctrica de EE. UU. ya está al límite. La red PJM, que cubre 13 estados del este, enfrenta una escasez de capacidad de 6 GW. Para 2033, se prevé un déficit total de 175 GW, equivalente al consumo de 130 millones de hogares. El costo mayor de energía en las zonas concentradas de centros de datos ha aumentado un 267% en cinco años.

El límite del poder computacional es la energía. Y en ese aspecto, la brecha entre China y EE. UU. es aún mayor que la de los chips, solo que en dirección opuesta.

La generación eléctrica anual de China es de 10.4 billones de kWh, frente a 4.2 billones de EE. UU., es decir, China produce 2.5 veces más. Más aún, el consumo residencial en China representa solo el 15% del total, mientras que en EE. UU. ese porcentaje es del 36%. Esto significa que China tiene mucho más excedente industrial de electricidad para invertir en infraestructura de IA.

En tarifas eléctricas, las empresas de IA en EE. UU. pagan entre 0.12 y 0.15 dólares por kWh, mientras que en el oeste de China, la electricidad industrial cuesta alrededor de 0.03 dólares, solo una cuarta o quinta parte.

El incremento en generación eléctrica en China ya es siete veces mayor que en EE. UU.

Mientras EE. UU. enfrenta problemas energéticos, China avanza silenciosamente en la expansión de IA al exterior. Pero esta vez, no son productos ni fábricas, sino tokens.

Los tokens, la unidad mínima de procesamiento de información en modelos de IA, están convirtiéndose en un nuevo producto digital. Se producen en los centros de cálculo chinos y se transportan por cables submarinos a todo el mundo.

Los datos de distribución de usuarios de DeepSeek ilustran esto claramente: 30.7% en China, 13.6% en India, 6.9% en Indonesia, 4.3% en EE. UU., 3.2% en Francia. Soporta 37 idiomas y es popular en mercados emergentes como Brasil. Más de 26,000 empresas tienen cuentas, y 3,200 instituciones usan versiones empresariales.

En 2025, el 58% de las nuevas startups de IA integraron DeepSeek en su stack tecnológico. En China, DeepSeek domina con el 89% del mercado. En otros países bajo sanciones, su cuota varía entre 40% y 60%.

Este escenario recuerda mucho a otra guerra por la autonomía industrial hace cuarenta años.

En 1986, en Tokio, bajo presión de EE. UU., Japón firmó el Acuerdo de Semiconductores Japón-EE. UU. El acuerdo tenía tres puntos clave: abrir el mercado de semiconductores en Japón, con una cuota de mercado estadounidense en Japón superior al 20%; prohibir exportar semiconductores japoneses por debajo del costo; y aplicar un arancel punitivo del 100% a los chips japoneses por valor de 300 millones de dólares. EE. UU. también bloqueó la adquisición de Fujitsu por parte de Quick Semiconductor.

En ese momento, Japón lideraba la industria de semiconductores, con más del 50% del mercado global en 1988, frente al 36.8% de EE. UU. Las principales empresas japonesas dominaban: NEC, Toshiba, Hitachi, Fujitsu, Mitsubishi y Panasonic. En 1985, Intel perdió 173 millones de dólares en la disputa, casi quebrando.

Pero tras el acuerdo, todo cambió.

EE. UU. utilizó investigaciones 301 y otras medidas para presionar a las empresas japonesas, apoyando a Samsung y Hynix en Corea con precios más bajos. La cuota de mercado de DRAM japonesa cayó del 80% al 10%. Para 2017, la participación en el mercado de chips de Japón quedó en solo 7%. Los gigantes que alguna vez dominaron, fueron divididos, adquiridos o se retiraron en pérdidas.

La tragedia de Japón fue no haber construido un ecosistema propio, solo ser un productor en una división global dominada por fuerzas externas. Cuando la marea bajó, se dieron cuenta de que, además de producir, no tenían nada más.

Hoy, la industria de IA en China enfrenta un camino similar, pero con diferencias sustanciales.

Lo similar: enfrentamos una enorme presión externa, con tres rondas de control de chips y barreras en la ecosistema CUDA.

Lo diferente: esta vez, elegimos un camino más difícil. Desde la optimización algorítmica extrema, la transición de chips nacionales de inferencia a entrenamiento, la acumulación de 4 millones de desarrolladores en el ecosistema Ascend, hasta la expansión de tokens en mercados globales. Cada paso construye un ecosistema industrial independiente que Japón nunca tuvo.

El 27 de febrero de 2026, se publicaron en el mismo día tres informes de resultados de empresas nacionales de chips de IA.

Cambricon reportó un aumento del 453% en ingresos, logrando por primera vez rentabilidad anual. Moore Threads creció un 243%, pero aún perdió mil millones de yuanes. Muoxi aumentó un 121%, con pérdidas cercanas a 800 millones.

Un lado es fuego, el otro, mar.

El fuego: la sed insaciable del mercado. Los 95% de espacio vacío que Huang Renxun dejó, están siendo llenados por las cifras de ingresos de estas empresas locales. Sin importar el rendimiento o el ecosistema, el mercado necesita una segunda opción a NVIDIA. Es una oportunidad estructural que surge en un momento de tensión geopolítica.

El mar: el gran costo de construir ecosistemas. Cada pérdida es una inversión en I+D, subsidios de software y en ingenieros que resuelven problemas en cliente. No son malas gestiones, sino el precio de construir un ecosistema independiente, un impuesto de guerra.

Estos informes reflejan con honestidad la realidad de esta guerra por la potencia computacional. No es una victoria en ascenso, sino una lucha encarnizada, sangrienta y de desgaste.

Pero la forma de la guerra ha cambiado. Hace ocho años, discutíamos si podíamos sobrevivir. Hoy, hablamos de cuánto cuesta sobrevivir.

El costo en sí mismo es progreso.

Ver originales
Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.
Comentar
0/400
Sin comentarios
Opera con criptomonedas en cualquier momento y lugar
qrCode
Escanea para descargar la aplicación de Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)