Mensaje de Gate News, 25 de abril — DeepSeek lanzó versiones de vista previa de V4-Pro y V4-Flash el 24 de abril, ambos modelos de código abierto con ventanas de contexto de un millón de tokens. V4-Pro presenta 1,6 billones de parámetros totales, pero activa solo 49 mil millones por pasada de inferencia usando una arquitectura Mixture-of-Experts. V4-Flash tiene 284 mil millones de parámetros totales con 13 mil millones activos.
Los precios son significativamente más bajos que los de la competencia: V4-Pro cuesta $1.74 por millón de tokens de entrada y $3.48 por millón de tokens de salida—aproximadamente un 98% menos que el GPT-5.5 Pro de OpenAI ($30 input, $180 output) y alrededor de una vigésima parte del costo de Claude Opus 4.7. V4-Flash se fija en $0.14 para entrada y $0.28 para salida por cada millón de tokens. Ambos modelos son de código abierto bajo la licencia MIT y pueden ejecutarse localmente de forma gratuita.
DeepSeek logró mejoras de eficiencia mediante dos nuevos mecanismos de atención: Compressed Sparse Attention y Heavily Compressed Attention, que reducen los costos de cómputo al 27% del predecesor V4-Pro (V3.2) y al 10% para V4-Flash. La compañía entrenó V4 en parte con chips Huawei Ascend, eludiendo las restricciones de exportación de EE. UU. sobre procesadores Nvidia avanzados. DeepSeek indicó que, una vez que entren en línea 950 nuevos supernodos más tarde en 2026, los precios bajarán aún más.
En benchmarks de rendimiento, V4-Pro-Max ocupa el primer lugar en Codeforces competitive programming (3,206 puntos, ubicándose alrededor del puesto 23 entre los concursantes humanos) y obteniendo 90.2% en problemas de matemáticas de Apex Shortlist frente al 85.9% de Claude Opus 4.6. Sin embargo, se queda atrás en benchmarks de multitarea: MMLU-Pro (87.5% frente al 91.0% de Gemini-3.1-Pro) y Humanity’s Last Exam (37.7% frente al 44.4%). En tareas de contexto largo, V4-Pro lidera a los modelos de código abierto pero pierde frente a Claude Opus 4.6 en pruebas de recuperación MRCR.
V4-Pro introduce “pensamiento intercalado,” lo que permite que los flujos de trabajo de agentes conserven el contexto de razonamiento a través de múltiples llamadas a herramientas sin vaciarlo entre pasos. Ambos modelos admiten integraciones de programación con Claude Code y OpenCode. Según la encuesta a desarrolladores de DeepSeek de 85 usuarios, el 52% dijo que V4-Pro estaba listo como su agente de codificación predeterminado, y el 39% se inclinó por adoptarlo. Los endpoints antiguos deepseek-chat y deepseek-reasoner se retirarán el 24 de julio de 2026.
Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el
Aviso legal.
Artículos relacionados
Los sueños de Claude de Anthropic: el agente se organiza la memoria entre tareas, eliminando duplicados y contradicciones
Anthropic en la conferencia Code with Claude dio a conocer Dreams, con el que Claude Managed Agents puede ordenar automáticamente la memoria entre múltiples conversaciones, eliminar duplicados y contradicciones, y actualizar entradas desactualizadas, generando un repositorio de memoria posterior verificable. El límite de entrada es de 100 sesiones y 4.096 caracteres; se ejecuta de forma asíncrona y se completa en minutos a decenas de minutos, con soporte para observación en streaming. La vista previa para investigación requiere solicitud; por ahora solo admite claude-opus-4-7 y claude-sonnet-4-6, y la fecha de lanzamiento oficial aún no está definida.
ChainNewsAbmediahace1h
Anthropic compite con el poder de cómputo de SpaceX: logra Colossus 1 con 22.000 GPU en toda la infraestructura, Claude elimina los límites de uso
Anthropic anunció que llegó a un acuerdo de colaboración de potencia informática con SpaceX para el centro de datos Colossus 1, utilizando más de 220.000 GPU Nvidia, con una capacidad de más de 300MW. Se espera que en el plazo de un mes se despliegue completamente para el uso de Anthropic, mejorando el rendimiento y la experiencia de Claude y Code. Al mismo tiempo, se amplían los límites de uso por cada 5 horas para Pro/Max/Team/Enterprise, se elimina el límite en horas pico y se incrementa la velocidad de la API de Opus. La infraestructura en Asia y Europa también se expande simultáneamente; a futuro hay otras intenciones como “cómputo de IA en órbita”, aunque aún no se ha cerrado ningún contrato.
ChainNewsAbmediahace2h
Ingeniero de Coinbase: los agentes de IA podrían alterar el modelo de publicidad web
Erik Reppel, un ingeniero de Coinbase, dijo que los agentes de inteligencia artificial podrían socavar fundamentalmente el modelo de negocio de internet, que depende de la publicidad. Según Reppel, la economía web depende en gran medida de los ingresos publicitarios generados por usuarios humanos, pero los agentes de IA eluden ese sistema
CryptoFrontierhace2h
Anthropic duplica los límites de tasa de Claude Code después de asegurar 300MW de capacidad mediante un acuerdo con SpaceX
Según Odaily, Anthropic ha firmado un acuerdo con SpaceX para acceder a la capacidad informática total del centro de datos Colossus 1, asegurando más de 300 megavatios de nueva capacidad y más de 220.000 GPUs NVIDIA en el plazo de un mes. En vigor de inmediato, los límites de tasa de Claude Code de cinco horas para Pro,
GateNewshace2h
OpenAI publica el protocolo de la red supercomputadora MRC. En colaboración con NVIDIA, AMD y Microsoft para crear la infraestructura de Stargate
OpenAI publica el protocolo MRC para una red de supercomputación de IA, en colaboración con AMD, Microsoft, NVIDIA, etc., y lo abre bajo OCP. MRC divide los datos y los hace seguir múltiples rutas al mismo tiempo, evita obstáculos a nivel de microsegundos, reduce la congestión y mantiene la sincronización de GPU, resolviendo el cuello de botella de transmisión en grandes clústeres de entrenamiento. Sitios base como Stargate en Abilene, Texas, ya han desplegado interfaces de 800Gb/s y se han puesto en marcha en entrenamientos reales.
ChainNewsAbmediahace3h