Mensagem do Gate News, 24 de abril — A DeepSeek lançou a série V4 de modelos de código aberto sob a Licença MIT, com pesos agora disponíveis na Hugging Face e na ModelScope. A série inclui dois modelos (MoE) de mixture-of-experts: V4-Pro com 1,6 biliões de parâmetros totais e 49 mil milhões ativados por token, e V4-Flash com 284 mil milhões de parâmetros totais e 13 mil milhões ativados por token. Ambos suportam uma janela de contexto de 1 milhão de tokens.
A arquitetura traz três melhorias principais: um mecanismo de atenção híbrido que combina atenção esparsa comprimida (CSA) e atenção fortemente comprimida (HCA), que reduz significativamente a sobrecarga do contexto longo — as FLOPs de inferência do V4-Pro para 1M de contexto são apenas 27% das do V3.2, e a cache KV (VRAM para armazenar informação histórica durante a inferência) é apenas 10% da do V3.2; ligações hipernasifold-constrained (mHC) que substituem as ligações residuais tradicionais para melhorar a estabilidade da propagação do sinal entre camadas; e o otimizador Muon para uma convergência de treino mais rápida. O pré-treino usou mais de 32 biliões de tokens de dados.
O pós-treino emprega uma abordagem em duas etapas: primeiro treinar especialistas específicos de domínio via supervised fine-tuning (SFT) e aprendizagem por reforço GRPO, depois fundi-los num único modelo através de distilação online. O V4-Pro-Max (highest inference mode) afirma ser o modelo open-source mais forte, com benchmarks de codificação topo de gama e lacunas significativamente reduzidas face a modelos frontier com código fechado em tarefas de raciocínio e agentes. O V4-Flash-Max atinge desempenho de raciocínio ao nível do Pro com um orçamento computacional suficiente, mas é limitado pela escala de parâmetros em tarefas puras de conhecimento e tarefas complexas de agentes. Os pesos são armazenados em precisão mista FP4+FP8.
Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a
Isenção de responsabilidade.
Related Articles
Após a limitação de memória para IA após a HBM, o gargalo de memória será o HBF? Vencedor do Prémio Turing David Patterson: a inferência irá redefinir a arquitectura de armazenamento
O vencedor do Prémio Turing, David Patterson, aponta que, à medida que a IA passa do treino para inferência em grande escala, o próximo gargalo de memória pode não ser a HBM, mas sim a HBF (memória flash de alta largura de banda). A HBF fornece a pilha de NAND Flash para oferecer grande capacidade e baixo consumo de energia, ficando responsável pelo acesso a contextos e dados intermédios na inferência, em contraste com a HBM, que se baseia numa divisão de tarefas centrada na velocidade. A SK Hynix e a SanDisk estão a impulsionar a normalização, prevendo-se que, em 2038, a procura por HBF possa ultrapassar a HBM.
ChainNewsAbmedia2m atrás
Conferência de Desenvolvedores do Código da Anthropic com a Claude 5/6 em São Francisco: transmissão em direto gratuita, registo grátis
A Anthropic anunciou a 1 de maio que a primeira conferência de programadores “Code with Claude” abrirá em 6 de maio, em São Francisco, e será, pela primeira vez, expandida a três cidades em digressão: Londres (19/05) e Tóquio (10/06). As vagas presenciais para as três sessões principais serão atribuídas por sorteio e já estão todas esgotadas, mas o registo para streaming continua aberto a todos. Para fazer face à sobrecarga da procura presencial, a organização acrescentou uma sessão “Extended” adicional em São Francisco, a 7/05, desenhada especificamente para programadores independentes e fundadores em fase inicial.
Três etapas da digressão: 6/05 em São Francisco, 19/05 em Londres, 10/06 em Tóquio
“Code with Claude” é uma conferência de programadores organizada pela Anthropic, com a sessão de São Francisco a ser já a segunda edição. O conteúdo das 3 sessões é o mesmo: durante um dia inteiro, haverá workshops presenciais, demonstrações das funcionalidades mais recentes e interações com o Claude em várias
ChainNewsAbmedia20m atrás
A OpenAI divulga dados da primeira semana do lançamento do GPT-5.5: a taxa de crescimento das receitas da API atinge um novo máximo, o Codex duplica
OpenAI 1 de Maio publicou, na sua conta oficial, 3 dados após uma semana do lançamento do GPT-5.5: autoavaliou-se como “o melhor desempenho de sempre na geração de conteúdos”, a velocidade de crescimento da receita da API foi mais do dobro da de qualquer outra apresentação de um modelo anterior e o Codex duplicou a receita em menos de 7 dias. A OpenAI atribuiu a causa à procura crescente, por parte das empresas, por ferramentas de agentic coding (codificação orientada por agentes), alinhada com o mesmo ritmo de produto em que, a 30 de Abril, o GPT-5.5-Cyber entrou em confronto com o Anthropic Mythos.
3 itens dos dados divulgados: velocidade de receita da API a dobrar, Codex em 7 dias a duplicar, melhor desempenho de sempre
Os 3 números-chave que a OpenAI divulgou provêm de publicações oficiais no X, sem anexar relatórios financeiros detalhados: primeiro, o GPT-5.5 é “o que apresenta o crescimento de receitas mais forte de sempre” da mé
ChainNewsAbmedia22m atrás
Comissão de Assuntos Externos da Câmara dos Representantes dos EUA reúne-se com gigantes tecnológicos sobre controlos de exportação de IA após aprovação da lei MATCH Act por 36-8
De acordo com Beating, os membros da Comissão de Relações Externas da Câmara dos Representantes dos EUA vão viajar para o Vale do Silício na próxima semana para se reunirem com representantes da Google, Anthropic, Meta, Tesla, Intel, Applied Materials e Nvidia, para discutir a inteligência artificial e os controlos de exportação. Uma mesa-redonda do setor é s
GateNews1h atrás
A OpenAI Lança o Codex Pets, um Companheiro Virtual com IA e Geração Personalizada
Segundo o Beating, a OpenAI adicionou uma nova funcionalidade “Codex Pets” à aplicação de ambiente de trabalho do Codex, permitindo aos utilizadores gerar e interagir com um companheiro virtual animado. Os utilizadores podem ativar um animal de estimação escrevendo /pet no editor. A funcionalidade funciona como um indicador do estado do agente, mostrando a
GateNews1h atrás
Avaliação AISI: as capacidades de ataque à rede do GPT-5,5 estão ao mesmo nível das do Anthropic Mythos
AISI divulgou em maio uma avaliação das capacidades de ciberataque do GPT-5.5: dificuldade Expert 71,4%, Mythos Preview 68,6%; a diferença está dentro da margem de erro, pelo que fica empatado. O GPT-5.5 tornou-se, depois do Mythos, o segundo sistema capaz de concluir automaticamente as 32 etapas de uma invasão empresarial de “The Last Ones”. Foi também detetado um universal jailbreak, que pode ser desenvolvido em cerca de 6 horas e contornar a filtragem de consultas maliciosas. No futuro, será acompanhado o calendário da próxima ronda de avaliações e a atualização da OpenAI a este respeito.
ChainNewsAbmedia2h atrás