Mensagem do Gate News, 24 de Abril — Uma polémica explodiu nos Estados Unidos sobre as capacidades tecnológicas e a conformidade do DeepSeek V4. Chris McGuire, membro sénior do Conselho sobre Relações Exteriores (CFR) e antigo responsável do Conselho de Segurança Nacional da Casa Branca e do Departamento de Defesa, publicou uma análise que defende que o V4 não alterou o panorama competitivo de IA EUA-China. Segundo McGuire, o próprio relatório do DeepSeek sobre o V4 reconhece que as suas capacidades de raciocínio ficam atrás dos modelos de ponta em cerca de 3 a 6 meses, fazendo benchmarks com o GPT-5.2 e o Gemini 3.0 Pro lançados seis meses antes.
McGuire levantou preocupações de que, embora o relatório do V4 divulgue adaptação em fase de inferência para GPUs NVIDIA e NPU Huawei Ascend, não especifica publicamente os modelos de GPU nem os custos de treino utilizados durante o desenvolvimento. Questionou se esse silêncio sugere a utilização de chips NVIDIA Blackwell controlados por exportação, referindo que o V3 tinha anteriormente afirmado usar 2.000 GPUs H800 a um custo de 5,57 milhões de dólares. A DeepSeek negou ter usado Blackwell, afirmando que o modelo foi treinado em processadores NVIDIA H800 e Huawei Ascend 910C.
O CEO da Replit, Amjad Masad, rebateu a análise de McGuire, argumentando que cientistas chineses estão a partilhar publicamente avanços genuínos em IA enquanto responsáveis políticos e lobistas americanos amplificam preocupações de “distorção da China”. Masad destacou inovações arquitectónicas divulgadas nas declarações oficiais do DeepSeek, incluindo compressão de atenção ao nível de tokens (DeepSeek Sparse Attention) e melhorias significativas de eficiência para computação de longo contexto. Referiu que o V4-Pro demonstra uma computação de inferência por token e requisitos de cache KV substancialmente mais baixos em comprimentos de contexto de 1M em comparação com o V3.2, sublinhando que estes avanços arquitectónicos não têm relação com distilação de dados de treino e que todos os investigadores, incluindo laboratórios americanos, podem beneficiar de desenvolvimentos de código aberto.
Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a
Isenção de responsabilidade.
Related Articles
Sonhos com o Claude da Anthropic: os agentes auto-organizam memórias entre tarefas, eliminam duplicados e contradições
A Anthropic, na conferência Code with Claude, anunciou os Dreams, permitindo que os Claude Managed Agents organizem automaticamente memórias entre múltiplas sessões de conversa, eliminem duplicados e contradições, e atualizem entradas desatualizadas, produzindo uma base de memórias finalizável e auditável; o limite de entrada é de 100 sessões e 4.096 caracteres, com execução assíncrona, concluída entre alguns minutos e algumas dezenas de minutos, e com suporte para observação por streaming. A pré-visualização da investigação requer candidatura; por agora, apenas suporta claude-opus-4-7 e claude-sonnet-4-6, com data de lançamento oficial ainda por definir.
ChainNewsAbmedia21m atrás
A Anthropic negocia com a SpaceX a capacidade de computação: garante Colossus 1 com 22 mil GPUs, e o Claude removeu os limites
A Anthropic anunciou uma parceria de capacidade computacional com a SpaceX para o centro de dados Colossus 1, com planos para utilizar mais de 220 mil GPUs Nvidia e mais de 300MW de capacidade. A implementação deverá ficar concluída no prazo de um mês para ser disponibilizada ao uso da Anthropic, melhorando o desempenho e a experiência do Claude e do Code. Em paralelo, foram alargados os limites de utilização a cada 5 horas para Pro/Max/Team/Enterprise, foi removido o limite durante os picos e foi aumentada a taxa da API do Opus. A expansão das infraestruturas na Ásia e na Europa ocorre em simultâneo, e, no futuro, há ainda intenções para “computação de IA em órbita”, entre outras, embora ainda não haja contratos fechados.
ChainNewsAbmedia32m atrás
Engenheiro da Coinbase: os agentes de IA poderiam perturbar o modelo de publicidade na Web
Erik Reppel, engenheiro da Coinbase, afirmou que os agentes de inteligência artificial poderiam minar fundamentalmente o modelo de negócio da internet, dependente da publicidade. Segundo Reppel, a economia da Web depende fortemente das receitas de publicidade geradas a partir de utilizadores humanos, mas os agentes de IA contornam esse sistema
CryptoFrontier1h atrás
A Anthropic duplica os limites de taxa do Claude Code após garantir uma capacidade de 300 MW num acordo com a SpaceX
Segundo a Odaily, a Anthropic assinou um acordo com a SpaceX para aceder à capacidade total de computação do centro de dados Colossus 1, garantindo mais de 300 megawatts de nova capacidade e mais de 220.000 GPUs NVIDIA no prazo de um mês. A partir do momento, os limites de taxa de cinco horas do Claude Code para Pro,
GateNews1h atrás
A OpenAI publica o protocolo de rede do supercomputador MRC! Em parceria com a Nvidia, a AMD e a Microsoft para criar a infraestrutura base do Stargate
A OpenAI anunciou a MRC, uma proposta de protocolo para uma rede de supercomputação de IA, em colaboração com a AMD, a Microsoft, a NVIDIA e outras entidades, e disponibilizou-a em código aberto na OCP. A MRC divide os dados e envia-os por múltiplos caminhos em simultâneo, evita obstáculos a nível de microssegundos, reduz a congestão e mantém a sincronização da GPU, resolvendo os gargalos de transferência em grandes clusters de treino. As bases já implantadas, como o Stargate em Abilene, no Texas, têm interfaces de 800Gb/s e já foram integradas em treinos reais.
ChainNewsAbmedia1h atrás
Plataforma de recrutamento com IA, Ethos, conclui financiamento da Série A no valor de 22,75 milhões de dólares, liderado pela a16z, a 6 de maio
De acordo com a BlockBeats, a plataforma de recrutamento de IA sediada em Londres, Ethos, concluiu uma ronda de financiamento Série A no valor de 22,75 milhões de dólares em 6 de maio, com a Andreessen Horowitz (a16z) a liderar a ronda e a General Catalyst a participar. A plataforma utiliza IA para entrevistar candidatos e analisa
GateNews2h atrás