O governo Trump adotou por muito tempo uma postura de não interferência em relação à inteligência artificial; agora, por causa de preocupações de cibersegurança provocadas pelo poderoso modelo Mythos, publicado anteriormente pela Anthropic, começa a considerar a implementação de um mecanismo de revisão governamental antes do lançamento público de modelos de IA, simbolizando uma grande virada na política de regulação de IA dos EUA.
Curva brusca na política de IA da Casa Branca: de “deixar acontecer” para “controlar”
Segundo reportagem do The New York Times, autoridades dos EUA revelaram que o presidente Trump está considerando emitir uma ordem executiva para criar um grupo de trabalho de IA, composto por líderes da indústria de tecnologia e autoridades do governo, a fim de elaborar procedimentos de revisão governamental a serem aplicados antes da divulgação pública de novos modelos de IA.
A Casa Branca já realizou na semana passada reuniões com altos executivos de empresas como Anthropic, Google e OpenAI sobre os planos relacionados. Pessoas a par do assunto indicaram que o possível mecanismo de revisão pode se basear no modelo atualmente em vigor no Reino Unido, em que vários órgãos governamentais, em conjunto, garantem que os modelos de IA atendam a padrões específicos de segurança.
A virada desta política contrasta com a postura aberta de Trump no passado. Ele havia declarado em julho do ano passado: “Temos que deixar este bebê crescer e prosperar; não podemos impedir isso com regras tolas”, e, após assumir o cargo, rapidamente revogou os procedimentos regulatórios que o governo Biden exigia dos desenvolvedores de IA para fazer avaliações de segurança. No entanto, em apenas poucos meses, a direção da política já mudou.
O “Claude Mythos” que a Anthropic não ousa divulgar, e que chocou a Casa Branca
Uma das razões apontadas para a mudança de postura da Casa Branca é o novo modelo de IA Claude Mythos, divulgado no mês passado pela Anthropic. A Anthropic alertou que o Mythos tem capacidade extremamente forte para identificar falhas de segurança em software, suficientemente para explorar fraquezas de “todos os sistemas operacionais principais e navegadores da web”, o que poderia levar a ataques cibernéticos em grande escala. Por fim, a empresa decidiu não publicar o modelo publicamente.
A Casa Branca está em alta vigilância, preocupada com o fato de que, se ocorrer um incidente de ataque cibernético destrutivo causado por IA, o governo enfrentará consequências políticas severas. Alguns funcionários ainda avaliam com mais afinco a possibilidade de estabelecer um mecanismo de “acesso prioritário do governo”, permitindo que agências federais obtenham acesso ao modelo antes da divulgação pública, para garantir que o valor militar e de inteligência do novo modelo possa ser utilizado pelo Pentágono.
(Modelo de segurança cibernética de nível “armas” Mythos da Anthropic, sem acesso autorizado: como eles fizeram isso?)
Disputa legal entre Anthropic e Pentágono
O contexto da mudança de política também se entrelaça com uma difícil disputa legal entre governo e empresas. Em fevereiro deste ano, a Anthropic e o Pentágono iniciaram negociações sobre um contrato de US$ 200 milhões, mas a Anthropic escolheu recusar a exigência do governo Trump. Por isso, o Departamento de Defesa classificou a Anthropic como um “risco na cadeia de fornecimento para segurança nacional”. A Anthropic, em seguida, entrou com uma ação judicial para tentar impedir esse movimento.
No mês passado, o chefe de gabinete da Casa Branca, Susie Wiles, e o secretário do Tesouro, Bessent, receberam o CEO da Anthropic, Dario Amodei, na Casa Branca, com foco em como recuperar o uso da tecnologia da Anthropic pelo governo. Depois disso, ambas as partes descreveram a reunião como “produtiva”.
Corrida armamentista de IA acelera, e a estrutura regulatória ainda precisa ser formada
Em março deste ano, o governo Trump nomeou 13 profissionais do setor de tecnologia, incluindo o CEO da Meta, Zuckerberg, o CEO da Nvidia, Huang Renxun, e o fundador da Oracle, Larry Ellison, para compor um novo comitê consultivo de IA da Casa Branca. Além disso, publicou um arcabouço legislativo, exigindo que o Congresso crie uma política nacional de IA unificada para substituir regras fragmentadas por cada estado.
Na semana passada, o Pentágono também anunciou ter fechado um acordo com a OpenAI, Google, Nvidia, SpaceX, Microsoft, Amazon e Reflection para implantar as ferramentas de IA dessas empresas nas redes sigilosas do Departamento de Defesa, com o objetivo de fortalecer análises de dados, melhorar a percepção de situação no campo de batalha e ajudar as decisões dos soldados em ambientes operacionais complexos.
Isso mostra que, independentemente de como a política de regulação evolua, a expansão do uso militar de IA pelo governo dos EUA já é uma rota definida. No entanto, como equilibrar incentivo à inovação e controle de riscos continua sendo o desafio mais difícil diante da Casa Branca.
Esta matéria “A Anthropic Mythos é forte demais! Casa Branca pretende exigir revisão de segurança governamental antes do lançamento de novos modelos de IA” foi a primeira a aparecer em 鏈新聞 ABMedia.
Related Articles
IREN adquire a Mirantis por $625M em um acordo 100% em ações para expandir a plataforma de nuvem de IA
CEO da Anthropic: EUA analisam processo simplificado de lançamento de modelos de IA, concorrentes de 1 a 3 meses atrás
A equipe do SGLang conclui uma rodada de captação de sementes $100M , a uma avaliação $400M , com a Accel na liderança
OpenAI concede 8.000 desenvolvedores um aumento de 10x no limite de taxa do Codex até 5 de junho
Joint venture da OpenAI com a Anthropic em conversas para adquirir três empresas de serviços de IA em 5 de maio
A Anthropic lança dez agentes de IA para serviços financeiros na terça-feira