Notícias Gate, 25 de abril — A DeepSeek lançou versões de pré-visualização de V4-Pro e V4-Flash a 24 de abril, ambos modelos open-weight com janelas de contexto de um milhão de tokens. O V4-Pro tem 1,6 triliões de parâmetros no total, mas activa apenas 49 mil milhões por passagem de inferência utilizando uma arquitectura Mixture-of-Experts. O V4-Flash tem 284 mil milhões de parâmetros no total, com 13 mil milhões activos.
Os preços são significativamente mais baixos do que os dos concorrentes: o V4-Pro custa $1,74 por um milhão de tokens de entrada e $3,48 por um milhão de tokens de saída — aproximadamente 98% menos do que o GPT-5.5 Pro da OpenAI ($30 input, $180 output) e cerca de um-vigésimo do custo do Claude Opus 4.7. O V4-Flash é tarifado em $0,14 para entrada e $0,28 para saída por um milhão de tokens. Ambos os modelos são open-source sob licença MIT e podem ser executados localmente de forma gratuita.
A DeepSeek alcançou ganhos de eficiência através de dois novos mecanismos de atenção: Compressed Sparse Attention e Heavily Compressed Attention, que reduzem os custos de computação para 27% do predecessor V4-Pro (V3.2) e para 10% no caso do V4-Flash. A empresa treinou parcialmente o V4 com chips Huawei Ascend, contornando as restrições de exportação dos EUA sobre processadores Nvidia avançados. A DeepSeek afirmou que, quando 950 novos supernós entrarem em funcionamento mais tarde em 2026, os preços cairão ainda mais.
Em benchmarks de desempenho, o V4-Pro-Max ocupa o primeiro lugar no Codeforces competitive programming (3.206, ficando em torno do 23.º lugar entre os concorrentes humanos) e com uma pontuação de 90,2% em problemas de matemática do Apex Shortlist, face aos 85,9% do Claude Opus 4.6. No entanto, fica atrás em benchmarks de multitarefa: MMLU-Pro (87,5% vs 91,0% do Gemini-3.1-Pro) e 37,7% do Humanity’s Last Exam ( vs 44,4%). Em tarefas de longo contexto, o V4-Pro lidera modelos open-source, mas perde para o Claude Opus 4.6 em testes de recuperação MRCR.
O V4-Pro introduz o “interleaved thinking”, permitindo que fluxos de trabalho de agentes retenham o contexto de raciocínio através de múltiplas chamadas de ferramentas, sem descarregar entre passos. Ambos os modelos suportam integrações de codificação com Claude Code e OpenCode. De acordo com o inquérito aos programadores da DeepSeek com 85 utilizadores, 52% disseram que o V4-Pro estava pronto como o seu agente de codificação por defeito, e 39% inclinavam-se para a adopção. Os endpoints antigos deepseek-chat e deepseek-reasoner serão descontinuados a 24 de julho de 2026.
Related Articles
Cursor contrata o antigo executivo da Palo Alto Networks, Simon Green, para liderar a expansão na Ásia
O fundador da Pi Network participa na Consensus 2026 e faz uma apresentação sobre verificação de identidade na era da IA
A Apple concordou em pagar 250 milhões de dólares, num acordo sobre ações coletivas relacionadas com a Apple Intelligence
Antevisão do Tencent Hunyuan Hy3 regista um crescimento de tokens 10x em duas semanas
Musk terá considerado incorporar a OpenAI na Tesla no final de 2017, ouve-se em tribunal