O exército dos EUA supostamente utilizou o modelo Claude da Anthropic numa grande operação de bombardeio contra o Irão, poucas horas depois de o Presidente Donald Trump ter pedido às agências federais que parassem de colaborar com a empresa. Segundo o The Wall Street Journal, o Comando Central dos EUA usou IA para analisar inteligência, identificar alvos e simular o campo de batalha.
Anteriormente, a Anthropic assinou um contrato de até 200 milhões de dólares com o Pentágono, através de parcerias com a Palantir e a Amazon Web Services. No entanto, as tensões aumentaram quando o CEO Dario Amodei recusou permitir que o exército usasse IA sem restrições por motivos éticos. Depois, o Pentágono passou a negociar a implementação de IA com a OpenAI.
Aviso: As informações nesta página podem ser provenientes de terceiros e não representam as opiniões ou pontos de vista da Gate. O conteúdo exibido nesta página é apenas para referência e não constitui aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou integridade das informações e não será responsável por quaisquer perdas decorrentes do uso dessas informações. Os investimentos em ativos virtuais apresentam altos riscos e estão sujeitos a uma volatilidade de preços significativa. Você pode perder todo o capital investido. Por favor, compreenda completamente os riscos envolvidos e tome decisões prudentes com base em sua própria situação financeira e tolerância ao risco. Para mais detalhes, consulte o
Aviso Legal.