A IA da Anthropic utilizada nas greves no Irã após Trump ter decidido cortar laços: WSJ

Decrypt

Resumo

  • O Comando Central dos EUA alegadamente utilizou o Claude da Anthropic para avaliações de inteligência, identificação de alvos e simulação de batalhas durante os ataques ao Irã.
  • Especialistas alertam que o prazo de seis meses para descontinuar subestima o verdadeiro custo de substituir um modelo de IA integrado em pipelines de defesa classificados.
  • A OpenAI fechou um acordo com o Pentágono após a crise com a Anthropic.

Horas após o presidente Donald Trump ordenar que agências federais interrompessem o uso das ferramentas de IA da Anthropic, o exército dos EUA realizou um grande ataque aéreo ao Irã que, segundo relatos, contou com a plataforma Claude da empresa. O Comando Central dos EUA utilizou o Claude para avaliações de inteligência, identificação de alvos e simulação de cenários de batalha durante os ataques ao Irã, confirmaram pessoas familiarizadas com o assunto ao Wall Street Journal no sábado. Apesar da orientação de Trump na sexta-feira para que as agências começassem uma descontinuação de seis meses dos produtos da Anthropic, após uma quebra nas negociações entre a empresa e o Pentágono sobre o uso de sistemas de IA comercialmente desenvolvidos. Decrypt entrou em contato com o Departamento de Defesa e a Anthropic para comentários.

 “Quando as ferramentas de IA já estão integradas em sistemas de inteligência e simulação ao vivo, as decisões no topo não se traduzem instantaneamente em mudanças no terreno,” disse Midhun Krishna M, cofundador e CEO do rastreador de custos de LLM TknOps.io, ao Decrypt. “Há um atraso — técnico, procedural e humano.” “Quando um modelo está integrado em sistemas de inteligência e simulação classificados, você enfrenta custos de integração já gastos, retreinamento, recertificações de segurança e testes paralelos, então um período de seis meses para descontinuação pode parecer decisivo, mas a carga financeira e operacional real é muito mais profunda,” acrescentou Krishna. “Agências de defesa agora irão priorizar a portabilidade e redundância dos modelos,” afirmou. “Nenhum operador militar sério quer descobrir durante uma crise que sua camada de IA é politicamente frágil.”

O CEO da Anthropic, Dario Amodei, afirmou na quinta-feira que a empresa não removeria salvaguardas que impedem o Claude de ser utilizado para vigilância doméstica em massa ou armas totalmente autônomas. “Não podemos, de boa consciência, atender ao pedido deles,” escreveu Amodei, após o Departamento de Defesa exigir que os contratados permitissem o uso de seus sistemas para “qualquer uso legal.” “Os lunáticos de esquerda na Anthropic cometeram um ERRO DESASTROSO ao tentar forçar o Departamento de Guerra,” escreveu Trump posteriormente na Truth Social, ordenando às agências que “interrompessem imediatamente” todo uso dos produtos da Anthropic. O Secretário de Defesa, Pete Hegseth, seguiu, classificando a Anthropic como um “risco na cadeia de suprimentos para a segurança nacional,” uma etiqueta anteriormente reservada a adversários estrangeiros, proibindo todos os contratantes e parceiros do Pentágono de atividades comerciais com a empresa. A Anthropic considerou a designação “sem precedentes” e prometeu contestá-la na justiça, afirmando que ela “nunca antes foi aplicada publicamente a uma empresa americana.” A empresa acrescentou que, até onde sabe, as duas restrições contestadas não afetaram nenhuma missão governamental até o momento. “A discussão não é sobre se a IA será usada na defesa, isso já está acontecendo,” acrescentou Krishna. “É sobre se os laboratórios de fronteira podem manter limites diferenciados uma vez que seus sistemas se tornem ativos operacionais sob contratos de ‘qualquer uso legal’.” A OpenAI agiu rapidamente para preencher a lacuna, com o CEO Sam Altman anunciando na sexta-feira um acordo com o Pentágono que cobria redes militares classificadas, alegando que incluía os mesmos limites que a Anthropic buscava.

Ontem, chegamos a um acordo com o Departamento de Guerra para implantar sistemas avançados de IA em ambientes classificados, que solicitamos que estivessem disponíveis para todas as empresas de IA.

Acreditamos que nossa implantação possui mais limites do que qualquer acordo anterior para IA classificada…

— OpenAI (@OpenAI) 28 de fevereiro de 2026

Questionado se a efetiva lista negra do Pentágono à Anthropic estabelecia um precedente preocupante para futuras disputas com empresas de IA, o CEO da OpenAI, Sam Altman, respondeu no X: “Sim; acho que é um precedente extremamente assustador, e gostaria que tivessem lidado de outra forma. “Não acho que a Anthropic tenha lidado bem também, mas, como a parte mais poderosa, considero o governo mais responsável. Ainda tenho esperança de uma resolução muito melhor,” acrescentou. Enquanto isso, quase 500 funcionários da OpenAI e do Google assinaram uma carta aberta alertando que o Pentágono tentava colocar empresas de IA umas contra as outras.

Ver original
Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.
Comentar
0/400
Nenhum comentário
Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)