Quando o debate entre ética na IA e necessidades militares se intensifica, o CEO da Anthropic, Dario Amodei, reativou recentemente as negociações com o Pentágono dos Estados Unidos, tentando salvar um contrato de cooperação em IA avaliado em centenas de milhões de dólares, mantendo a “linha vermelha” da empresa e evitando a exclusão formal da cadeia de fornecimento de defesa.
(Antecedentes: CEO da Anthropic acusa OpenAI e Pentágono de mentiras, Altman finge ser embaixador da paz)
(Informação adicional: Trump quer banir completamente a Anthropic! Recusa-se a modificar Claude para “limites de homicídio”, enquanto OpenAI surpreendentemente apoia essa posição)
Índice do artigo
Alternar
A empresa americana de IA, Anthropic, cujo CEO Dario Amodei reativou recentemente as negociações com o Departamento de Defesa dos EUA (Pentágono), está buscando um acordo final sobre os termos do contrato de uso militar de seu modelo de IA, Claude. Essa iniciativa ocorre após a ruptura das negociações na semana passada, quando o Pentágono listou a Anthropic como “risco na cadeia de fornecimento”, visando evitar a exclusão da colaboração com as forças armadas americanas e ao mesmo tempo preservar seus princípios éticos centrais.
Desde o ano passado, a Anthropic assinou um contrato piloto de até 200 milhões de dólares com o Pentágono, tornando Claude o primeiro modelo avançado de IA autorizado a ser implantado em redes confidenciais. No entanto, o governo de Trump posteriormente exigiu a alteração dos termos, insistindo que a IA pudesse ser usada para “qualquer uso legal” (any lawful use), sem restrições.
A Anthropic mantém duas “linhas vermelhas”: proibir o uso de Claude para vigilância em massa de cidadãos americanos e impedir seu uso em armas totalmente autônomas (fully autonomous weapons, ou seja, sistemas que podem escolher e atacar alvos sem intervenção humana). A empresa acredita que esses usos podem ameaçar valores democráticos e que a tecnologia de IA atual ainda não é suficientemente confiável. Contudo, o secretário de Defesa, Pete Hegseth, enviou um ultimato, exigindo concessões dentro do prazo, sob pena de cancelar o contrato e aplicar regulamentos relacionados, o que levou ao colapso das negociações na última sexta-feira.
Segundo fontes próximas, Amodei está atualmente negociando diretamente com Emil Michael, vice-secretário de Pesquisa e Engenharia do Departamento de Defesa, com o objetivo de chegar a um acordo de compromisso que permita às forças armadas continuar usando Claude, ao mesmo tempo em que reduz significativamente o risco de a Anthropic ser oficialmente colocada na lista negra.
Se bem-sucedido, o novo contrato pode aliviar a tensão e influenciar o cenário competitivo da indústria de IA — por exemplo, a OpenAI já firmou acordo com o Pentágono, mas também está ajustando seus termos para incluir restrições semelhantes. A Anthropic reforça sua disposição de colaborar, mas sem abrir mão de suas salvaguardas essenciais; caso não haja consenso, a empresa se compromete a facilitar uma transição suave para outros fornecedores, evitando impactos nas operações militares.
Essa controvérsia evidencia o embate entre empresas de IA e o setor militar em torno de ética, segurança e segurança nacional. A Anthropic, com sua marca de “IA responsável”, recusa concessões irrestritas, refletindo a preocupação de algumas empresas do Vale do Silício com aplicações militares de IA; por outro lado, o Pentágono enfatiza a flexibilidade no campo de batalha e vantagens tecnológicas.
Se as negociações forem bem-sucedidas, podem estabelecer um novo padrão para aplicações militares de IA; caso contrário, podem aprofundar a divisão na indústria. Especialistas do setor preveem que, em breve, poderão surgir declarações oficiais ou novos desenvolvimentos.