O exército dos EUA supostamente utilizou o modelo Claude da Anthropic numa grande operação de bombardeio contra o Irão, poucas horas depois de o Presidente Donald Trump ter pedido às agências federais que parassem de colaborar com a empresa. Segundo o The Wall Street Journal, o Comando Central dos EUA usou IA para analisar inteligência, identificar alvos e simular o campo de batalha.
Anteriormente, a Anthropic assinou um contrato de até 200 milhões de dólares com o Pentágono, através de parcerias com a Palantir e a Amazon Web Services. No entanto, as tensões aumentaram quando o CEO Dario Amodei recusou permitir que o exército usasse IA sem restrições por motivos éticos. Depois, o Pentágono passou a negociar a implementação de IA com a OpenAI.
Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a
Isenção de responsabilidade.