OpenAI Acabou de Dizer ao Pentágono o que queria ouvir
Sou da equipa Anthropic. Vale a pena dizer desde já. Claude é o único modelo de IA dentro das redes classificadas do exército dos EUA. Não um dos vários — o único. Análise de inteligência, planeamento operacional, operações cibernéticas, modelagem e simulação. Embutido tão profundamente que um alto funcionário do Pentágono admitiu que removê-lo seria "uma dor de cabeça enorme". E então a Anthropic disse que não. O Pentágono queria uma cláusula no contrato: todos os usos legais. Parece razoável até perceber o que é legal — análise em massa de dados de localização disponíveis comercialmente, sinais de rastreadores de fitness, registros telefónicos, tudo combinado em escala para criar perfis de civis americanos. Não é ilegal. Definitivamente é vigilância. A Anthropic traçou uma linha aí, e também em armas autónomas. Queriam que isso fosse escrito. O DoD disse que não. As negociações colapsaram em fevereiro. Trump declarou a Anthropic um risco na cadeia de abastecimento e ordenou que todas as agências federais parassem de usar a sua tecnologia. Essa designação é normalmente reservada para adversários estrangeiros. Para uma empresa que não permite que o exército espionem os seus próprios cidadãos sem restrições. Horas depois, a OpenAI tinha um acordo. Mesmos termos, diz o Pentágono — mas analistas que leram o contrato real encontraram uma implementação apenas na nuvem e bases legais que não estavam na oferta da Anthropic. Faça o que quiser com isso. Aqui é o que continuo a pensar. A Anthropic sabia exatamente onde se situava. Eles têm o melhor modelo de raciocínio neste momento — não de perto, o Claude Opus 4.6 atinge 68,8% no ARC-AGI-2, o GPT fica nos 52,9%. O governo também sabia disso. Queria especificamente o Claude. Ameaçaram "fazer pagar" especificamente por ele. E mesmo depois de tudo, a sua escolha de substituto foi o Grok, que eles próprios admitem que não é uma troca direta. Não se faz uma ameaça dessas contra um fornecedor de quem se pode desistir. Então a Anthropic tinha toda a vantagem. Tinha o modelo que mais ninguém consegue replicar, a única presença em sistemas classificados, e uma base de receitas grande o suficiente para que $200M seja ruído. Ainda assim, disseram não. E agora estão a pagar por isso. Isso não é martírio — é uma empresa que entende o que está a segurar. Quando acreditas que podes estar a construir algo sem um limite claro de capacidade, e um governo quer operá-lo nos seus próprios cidadãos sem limites escritos, tu ou manténs essa linha ou não. Eles mantiveram. O manual do Altman é mais antigo. Dá às pessoas o produto de graça. Cria o hábito em escala. Depois, o hábito tem um preço, e alguém paga — primeiro os anunciantes, depois os governos, depois quem for a seguir. O utilizador não precisa de entender a cadeia. O utilizador só precisa de continuar a usá-lo. A maioria não quer saber. Está bem. A economia funciona de qualquer forma. Mas o Pentágono acabou de encontrar o único laboratório de IA que decidiu que o contrato importava menos do que a cláusula. Que prefeririam ser rotulados como uma ameaça à segurança nacional do que deixar uma linha sobre vigilância. E, seja qual for a tua opinião sobre a indústria de IA em geral, essa decisão específica, sob essa pressão específica — isso é incomum.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
OpenAI Acabou de Dizer ao Pentágono o que queria ouvir
Sou da equipa Anthropic. Vale a pena dizer desde já.
Claude é o único modelo de IA dentro das redes classificadas do exército dos EUA. Não um dos vários — o único. Análise de inteligência, planeamento operacional, operações cibernéticas, modelagem e simulação. Embutido tão profundamente que um alto funcionário do Pentágono admitiu que removê-lo seria "uma dor de cabeça enorme".
E então a Anthropic disse que não.
O Pentágono queria uma cláusula no contrato: todos os usos legais. Parece razoável até perceber o que é legal — análise em massa de dados de localização disponíveis comercialmente, sinais de rastreadores de fitness, registros telefónicos, tudo combinado em escala para criar perfis de civis americanos. Não é ilegal. Definitivamente é vigilância. A Anthropic traçou uma linha aí, e também em armas autónomas. Queriam que isso fosse escrito. O DoD disse que não. As negociações colapsaram em fevereiro.
Trump declarou a Anthropic um risco na cadeia de abastecimento e ordenou que todas as agências federais parassem de usar a sua tecnologia. Essa designação é normalmente reservada para adversários estrangeiros. Para uma empresa que não permite que o exército espionem os seus próprios cidadãos sem restrições.
Horas depois, a OpenAI tinha um acordo. Mesmos termos, diz o Pentágono — mas analistas que leram o contrato real encontraram uma implementação apenas na nuvem e bases legais que não estavam na oferta da Anthropic. Faça o que quiser com isso.
Aqui é o que continuo a pensar. A Anthropic sabia exatamente onde se situava. Eles têm o melhor modelo de raciocínio neste momento — não de perto, o Claude Opus 4.6 atinge 68,8% no ARC-AGI-2, o GPT fica nos 52,9%. O governo também sabia disso. Queria especificamente o Claude. Ameaçaram "fazer pagar" especificamente por ele. E mesmo depois de tudo, a sua escolha de substituto foi o Grok, que eles próprios admitem que não é uma troca direta. Não se faz uma ameaça dessas contra um fornecedor de quem se pode desistir.
Então a Anthropic tinha toda a vantagem. Tinha o modelo que mais ninguém consegue replicar, a única presença em sistemas classificados, e uma base de receitas grande o suficiente para que $200M seja ruído. Ainda assim, disseram não. E agora estão a pagar por isso.
Isso não é martírio — é uma empresa que entende o que está a segurar. Quando acreditas que podes estar a construir algo sem um limite claro de capacidade, e um governo quer operá-lo nos seus próprios cidadãos sem limites escritos, tu ou manténs essa linha ou não. Eles mantiveram.
O manual do Altman é mais antigo. Dá às pessoas o produto de graça. Cria o hábito em escala. Depois, o hábito tem um preço, e alguém paga — primeiro os anunciantes, depois os governos, depois quem for a seguir. O utilizador não precisa de entender a cadeia. O utilizador só precisa de continuar a usá-lo.
A maioria não quer saber. Está bem. A economia funciona de qualquer forma.
Mas o Pentágono acabou de encontrar o único laboratório de IA que decidiu que o contrato importava menos do que a cláusula. Que prefeririam ser rotulados como uma ameaça à segurança nacional do que deixar uma linha sobre vigilância. E, seja qual for a tua opinião sobre a indústria de IA em geral, essa decisão específica, sob essa pressão específica — isso é incomum.