Após o fracasso nas negociações com o Pentágono, a Anthropic foi listada pelo governo dos EUA como uma empresa de risco na cadeia de abastecimento, enquanto a OpenAI anunciou rapidamente a obtenção de um contrato com o Departamento de Defesa, implantando seu modelo de IA em ambientes confidenciais. Essa transação não só causou impacto na indústria, mas também levou o CEO da OpenAI, Sam Altman, a admitir de forma rara: «Esta transação foi realmente apressada, a impressão não é boa.»
(Anthropic entra em conflito direto com o Pentágono! CEO Amodei rejeita «monitoramento em grande escala doméstico» e «armas totalmente autônomas»)
Anthropic fracassa nas negociações, governo Trump intervém para bloquear
Após o impasse nas negociações com o Pentágono na última sexta-feira, o presidente Donald Trump ordenou às agências federais que, após um período de transição de seis meses, parassem de usar a tecnologia da Anthropic. O Secretário de Defesa, Pete Hegseth, também declarou publicamente que a Anthropic foi designada como uma «risco na cadeia de abastecimento».
Essa decisão causou um grande impacto na indústria de IA. A Anthropic sempre enfatizou que sua tecnologia não deve ser usada em «armas totalmente autônomas» ou «monitoramento doméstico em grande escala», estabelecendo limites claros. No entanto, essa posição parece não ter sido aceita pelo Pentágono.
Enquanto o mercado ainda digeria essa notícia, a OpenAI anunciou rapidamente um acordo com o Departamento de Defesa, implantando seu modelo em ambientes confidenciais. A coincidência no timing gerou grande atenção na indústria.
OpenAI: nossos limites permanecem os mesmos
Diante das dúvidas do público sobre se a OpenAI estaria cedendo sob pressão de segurança nacional, a empresa publicou um artigo oficial no blog, listando três usos claramente proibidos:
Monitoramento doméstico em grande escala
Sistemas de armas autônomas
Decisões automatizadas de alto risco (como «sistemas de crédito social»)
A OpenAI destacou que, ao contrário de algumas empresas de IA que «reduzem ou removem barreiras de segurança, dependendo apenas de políticas de uso», sua colaboração com o Departamento de Defesa adota uma estrutura de segurança «multicamadas e abrangente».
Segundo a explicação oficial, a OpenAI mantém controle completo sobre as tecnologias de segurança, implantando seus modelos via API na nuvem, garantindo que apenas pessoal treinado e autorizado opere, além de contar com cláusulas contratuais rigorosas e conformidade com as leis existentes nos EUA.
Na declaração, a OpenAI também afirmou: «Não sabemos por que a Anthropic não conseguiu fechar esse acordo, mas esperamos que eles e outros laboratórios reconsiderem.»
Nuvem de vigilância: a Ordem Executiva 12333 no centro das atenções
Apesar de a OpenAI afirmar que seus limites são claros, o setor de tecnologia não está convencido. Mike Masnick, fundador do Techdirt, apontou que o contrato menciona que a coleta de dados seguirá a Ordem Executiva 12333, o que na prática pode ainda permitir monitoramento doméstico.
Masnick explicou que a Ordem Executiva 12333 tem sido criticada há muito tempo como base legal para a NSA interceptar comunicações internacionais envolvendo cidadãos americanos. Isso sugere que o contrato da OpenAI «na prática, permite vigilância doméstica».
Em resposta, Katrina Mulligan, responsável por cooperação de segurança nacional na OpenAI, publicou no LinkedIn uma refutação. Ela afirmou que a atenção excessiva a um único cláusula do contrato é um equívoco, pois essa compreensão «é completamente incorreta» ao pensar que ela é a única barreira contra o uso de IA em vigilância em massa ou armas autônomas.
Ela reforçou: «A arquitetura de implantação é mais importante do que a linguagem do contrato.» Ao oferecer apenas API na nuvem, a OpenAI garante que seus modelos não possam ser integrados diretamente em sistemas de armas, sensores ou outros hardwares de combate.
Sam Altman admite a pressa: para «esfriar» o conflito na indústria?
Nas redes sociais, Sam Altman também respondeu às críticas. Ele admitiu que a transação foi «realmente apressada» e reconheceu que a empresa enfrentou forte reação.
A reação foi tão grande que, até mesmo, refletiu na competição de mercado: no sábado, o modelo Claude da Anthropic chegou a superar o ChatGPT em downloads na App Store da Apple.
(Anthropic tem contrato rescindido pelo Pentágono, aumento de downloads de Claude faz dele o mais baixado)
Por que então assinar o contrato?
Altman afirmou: «Realmente queríamos acalmar as coisas, achamos que esse acordo é razoável.» Ele acrescentou que, se essa colaboração ajudar a aliviar as tensões entre o Departamento de Defesa e a indústria de IA, a OpenAI será vista como uma empresa que cedeu à pressão e promove estabilidade; caso contrário, a crítica por decisões apressadas e pouco cautelosas continuará.
Batalha de fronteiras entre IA e defesa: uma nova fase na indústria
Esse episódio revela uma questão mais profunda: à medida que a tecnologia de IA se torna mais avançada, como as empresas de tecnologia podem equilibrar segurança nacional e limites éticos?
A Anthropic optou por manter seus princípios e acabou perdendo o contrato governamental; a OpenAI escolheu uma intervenção rápida, tentando garantir limites de segurança por meio de sua arquitetura técnica e mecanismos legais. Ambas as estratégias representam diferentes formas de lidar com riscos.
No futuro, a colaboração entre empresas de IA e governos será ainda mais frequente. O ponto-chave será se essas parcerias conseguirão proteger a segurança nacional sem comprometer a liberdade civil e os princípios éticos tecnológicos.
Este artigo: OpenAI conquista contrato com o Pentágono! Sam Altman admite decisão «apressada», reforça que não envolve vigilância em massa nem armas autônomas foi publicado originalmente no Chain News ABMedia.