The Wall Street Journal revela: Trump localiza o assassinato de Khamenei do Irão usando Claude AI, OpenAI assume o controlo total dos sistemas do Pentágono

動區BlockTempo

Segundo o The Wall Street Journal, o Comando Central dos EUA (CENTCOM) utilizou o sistema de IA Claude da Anthropic durante uma operação de ataque aéreo no Irão, fornecendo análise de inteligência, identificação de alvos e simulação de campo de batalha — mesmo após apenas algumas horas da assinatura de uma ordem executiva de Trump que proibia a Anthropic. Este episódio evidencia que a IA já está profundamente integrada na infraestrutura de defesa, tornando difícil uma interrupção imediata, mesmo com ordens presidenciais. A Anthropic foi excluída pelo Pentágono por se recusar a remover restrições relacionadas a armas autônomas e vigilância em massa, sendo rapidamente substituída pela OpenAI.

(Antecedentes: Trump quer banir totalmente a Anthropic! Recusa-se a modificar Claude para evitar “restrições de homicídio”, enquanto a OpenAI surpreendentemente apoia)

(Complemento: Pentágono confronta a Anthropic! Abre totalmente o uso militar do Claude — “senão, rescindimos o contrato”)

Índice deste artigo

Alternar

  • Mesmo após a assinatura do banimento, Claude continua operando no campo de batalha
  • Anthropic mantém duas linhas vermelhas, sendo expulsa por “não obedecer”
  • OpenAI assume rapidamente, a corrida armamentista de IA muda de protagonista
  • A IA não tem mais volta: a inércia tecnológica supera as ordens de proibição

Na sexta-feira passada, quando o governo Trump ordenou a suspensão total do uso da tecnologia da Anthropic, e o Departamento de Defesa a colocou na lista de “risco na cadeia de suprimentos”, as operações aéreas dos EUA no Irão continuaram a depender do Claude AI. Essa aparente contradição revela uma realidade inquietante: a infiltração da IA nos sistemas militares já ultrapassou o alcance das ordens executivas que poderiam, em teoria, interrompê-la imediatamente.

Mesmo após a assinatura do banimento, Claude continua operando no campo de batalha

Segundo fontes do The Wall Street Journal, durante a operação de ataque ao Irão, denominada “Fúria Épica” (Operation Epic Fury), o Comando Central dos EUA continuou usando o Claude para várias tarefas críticas — incluindo análise de inteligência, auxílio na identificação de alvos e simulação de cenários de combate.

No verão passado, a Anthropic assinou um contrato-protótipo de dois anos, no valor máximo de 200 milhões de dólares, com o Pentágono, por meio de parcerias com a Palantir e a Amazon Web Services. O Claude tornou-se o primeiro modelo de IA comercial autorizado a operar na rede confidencial do Pentágono, sendo utilizado desde testes de armas até comunicações em tempo real no campo de batalha. Relatos indicam que o sistema também apoiou ações do presidente venezuelano Maduro em janeiro deste ano.

Anthropic mantém duas linhas vermelhas, sendo expulsa por “não obedecer”

O conflito central reside na exigência do Pentágono para que a Anthropic remova restrições contratuais, permitindo o uso do Claude para “todos os fins legais”. Contudo, o CEO da Anthropic, Dario Amodei, recusou-se a ceder, defendendo duas linhas éticas fundamentais:

  • Claude não pode ser usado para vigilância em massa de cidadãos americanos
  • Claude não pode impulsionar sistemas de armas totalmente autônomas

Amodei declarou que a empresa é contra o uso de IA para “vigilância doméstica em larga escala” e “armas totalmente autônomas”, enfatizando que decisões militares devem ser humanas, não algoritmos. Em comunicado, afirmou: “Não podemos, com consciência tranquila, aceitar esses pedidos.”

O secretário de Defesa, Pete Hegseth, imediatamente colocou a Anthropic na lista de “risco na cadeia de suprimentos”, e Trump ordenou que todas as agências federais “interrompessem imediatamente” o uso da tecnologia da Anthropic — embora o Departamento de Defesa e outros setores tenham um período de transição de seis meses. A Anthropic anunciou que contestará judicialmente essa decisão, alegando que ela é “sem base legal” e alertando que tal medida estabelece um perigoso precedente para “qualquer empresa americana negociando com o governo”.

OpenAI assume rapidamente, a corrida armamentista de IA muda de protagonista

Poucas horas após o anúncio de Trump de banir a Anthropic, a OpenAI anunciou um acordo com o Departamento de Defesa para implantar sua tecnologia de IA em redes militares confidenciais.

Curiosamente, durante toda a controvérsia, o CEO da OpenAI, Sam Altman, manifestou apoio público à Anthropic em uma entrevista à CNBC, dizendo que ela “é confiável na área de segurança” — mesmo assim, a OpenAI acabou assumindo o contrato militar que a Anthropic foi forçada a abandonar. Essa interação delicada entre gigantes da IA reflete a difícil balança entre interesses comerciais e posições éticas no Vale do Silício.

A IA não tem mais volta: a inércia tecnológica supera as ordens de proibição

O episódio mais profundo não é a disputa política entre Trump e a Anthropic, mas uma verdade mais fundamental: quando sistemas de IA já estão profundamente integrados em cada etapa do ciclo militar, de análise de inteligência a alvos, qualquer ordem de “desligar” não se concretiza rapidamente.

Para as comunidades de criptomoedas e Web3, esse caso serve como um alerta: seja IA ou blockchain, quando a tecnologia entra no núcleo do governo e da defesa, o ideal de “descentralização” precisa enfrentar a dura realidade da vontade estatal. A experiência da Anthropic mostra que manter a ética tecnológica pode custar a perda dos maiores clientes.

Ver original
Aviso: As informações nesta página podem ser provenientes de terceiros e não representam as opiniões ou pontos de vista da Gate. O conteúdo exibido nesta página é apenas para referência e não constitui aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou integridade das informações e não será responsável por quaisquer perdas decorrentes do uso dessas informações. Os investimentos em ativos virtuais apresentam altos riscos e estão sujeitos a uma volatilidade de preços significativa. Você pode perder todo o capital investido. Por favor, compreenda completamente os riscos envolvidos e tome decisões prudentes com base em sua própria situação financeira e tolerância ao risco. Para mais detalhes, consulte o Aviso Legal.
Comentário
0/400
Sem comentários