Exposição do debate sobre o mecanismo de pré-aprovação de IA na Casa Branca; comentários de Hassett desmentidos oficialmente no dia seguinte

白宮AI預審機制討論

O diretor da Comissão Nacional de Economia da Casa Branca (NEC), Kevin Hassett, disse em 7 de maio, em entrevista ao Fox Business, que o governo Trump está avaliando ordenar, por meio de uma ordem executiva, que modelos de IA passem por uma revisão de segurança do governo antes de serem disponibilizados publicamente, e comparou o processo ao da FDA para a aprovação prévia de medicamentos para lançamento no mercado. Mas, segundo o Politico em 8 de maio, autoridades sêniores da Casa Branca afirmaram em seguida que a declaração foi “recortada fora de contexto”.

Linha do tempo do caso: contradições da política da Casa Branca vêm à tona em reportagem do “New York Times”

Em 4 de maio de 2026, o “New York Times” reportou que a Casa Branca estava discutindo criar um mecanismo de revisão antes da publicação de modelos de IA, na época descrito como “em consideração”. Em 7 de maio de 2026, Kevin Hassett, em entrevista ao Fox Business, declarou publicamente: “Estamos analisando se podemos, por meio de uma ordem executiva, exigir que a IA que, no futuro, possa apresentar vulnerabilidades seja colocada em uso somente depois de provar que é segura — como os remédios da FDA”.

Na madrugada de 7 de maio de 2026, a chefe de gabinete Susie Wiles publicou no X que o governo “não é responsável por escolher vencedores e perdedores” e afirmou que implantações de segurança para tecnologias fortes deveriam ser impulsionadas por “inovadores excepcionais dos EUA, e não por agências burocráticas”. Conforme o histórico de posts na conta oficial, a publicação acima foi o 4º conteúdo divulgado desde que Wiles criou sua conta.

O Politico cita três pessoas informadas, sob condição de anonimato, dizendo que a Casa Branca discute fazer com que agências de inteligência realizem avaliações prévias antes da disponibilização pública de modelos de IA. Um oficial do governo dos EUA afirmou na reportagem que um dos objetivos disso é “garantir que o setor de inteligência estude e use essas ferramentas antes que adversários como Rússia e China entendam as novas capacidades”.

Agências envolvidas e marco de políticas

CAISI amplia acordo voluntário de avaliações de segurança

O Centro de Padrões e Inovação de IA (CAISI), ligado ao Departamento de Comércio, anunciou nesta semana que assinou acordos de avaliação de segurança de IA com Google DeepMind, Microsoft e xAI, com a expansão do escopo em relação ao que já havia sido incluído anteriormente, OpenAI e Anthropic. A estrutura de avaliações voluntárias da CAISI está em vigor desde 2024.

Subsecretário de Defesa apoia publicamente mecanismo de pré-avaliação

Em 8 de maio de 2026, em um evento de IA em Washington, o subsecretário de Defesa Emil Michael apoiou publicamente a pré-avaliação do governo antes da disponibilização de modelos de IA e citou o sistema Mythos da Anthropic como exemplo, dizendo que modelos “mais cedo ou mais tarde vão aparecer” e que o governo precisa criar mecanismos de resposta.

Contexto de políticas do governo Trump e da Anthropic

De acordo com o Politico, o secretário de Defesa Pete Hegseth, em março de 2026, incluiu a Anthropic em uma lista de riscos com base em risco da cadeia de suprimentos e proibiu que seus modelos fossem usados em contratos do Departamento de Defesa. Depois disso, o Trump teria solicitado separadamente que agências federais interrompessem o uso de produtos da Anthropic dentro de seis meses. Ao mesmo tempo, no mês passado, a Anthropic revelou que seu sistema de IA Mythos tem capacidade robusta de descoberta de vulnerabilidades de software, além do patamar de segurança exigido para lançamento público, e várias agências federais posteriormente apresentaram pedidos de acesso. Em 8 de maio de 2026, a OpenAI anunciou que fará uma prévia limitada da GPT-5.5-Cyber, uma nova ferramenta capaz de detectar e corrigir vulnerabilidades de rede.

Posições da indústria contra mecanismo de revisão compulsória

Daniel Castro, presidente do Information Technology and Innovation Foundation (ITIF), disse na reportagem do Politico: “Se você consegue negar a aprovação antes do lançamento, isso é um grande problema para qualquer empresa. Se um concorrente recebe aprovação enquanto outro não, a diferença de semanas ou meses na entrada no mercado terá um impacto enorme.” Os financiadores do ITIF incluem Anthropic, Microsoft e Meta.

Um alto funcionário da Casa Branca afirmou na mesma reportagem: “Há, de fato, um ou dois que estão muito entusiasmados com a supervisão do governo, mas eles são minoria.” O funcionário pediu anonimato alegando necessidade de descrever discussões sensíveis de políticas.

Perguntas frequentes

Quando e onde Kevin Hassett fez declarações sobre pré-avaliação de IA?

Conforme reportado pelo Politico, em 7 de maio de 2026, Kevin Hassett, em entrevista ao Fox Business, afirmou publicamente que o governo está avaliando uma ordem executiva para exigir que modelos de IA passem por uma revisão de segurança do governo antes de serem lançados, comparando o processo ao fluxo de aprovação da FDA para medicamentos.

Qual é a base para a Casa Branca negar as declarações de Hassett?

Segundo a reportagem do Politico em 8 de maio de 2026, autoridades sêniores da Casa Branca disseram que a fala de Hassett foi “um pouco recortada fora de contexto”, e que a direção de políticas da Casa Branca é firmar parcerias com empresas, e não impor regulamentação governamental. A chefe de gabinete Susie Wiles também publicou novamente para reiterar que o governo não interfere na escolha do mercado.

Quais novos acordos de avaliação de segurança de IA a CAISI acrescentou nesta semana?

De acordo com o comunicado da CAISI nesta semana, os acordos adicionais abrangem Google DeepMind, Microsoft e xAI, além dos que já estavam cobertos anteriormente, OpenAI e Anthropic. A estrutura de avaliações voluntárias está em vigor desde 2024.

Aviso: As informações nesta página podem ser provenientes de terceiros e não representam as opiniões ou pontos de vista da Gate. O conteúdo exibido nesta página é apenas para referência e não constitui aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou integridade das informações e não será responsável por quaisquer perdas decorrentes do uso dessas informações. Os investimentos em ativos virtuais apresentam altos riscos e estão sujeitos a uma volatilidade de preços significativa. Você pode perder todo o capital investido. Por favor, compreenda completamente os riscos envolvidos e tome decisões prudentes com base em sua própria situação financeira e tolerância ao risco. Para mais detalhes, consulte o Aviso Legal.

Related Articles

EUA e China devem lançar o Diálogo Oficial de Segurança da IA, liderado por autoridades do Tesouro

De acordo com relatos, os Estados Unidos e a China estão se preparando para lançar um diálogo oficial sobre segurança de IA com o objetivo de estabelecer mecanismos de gestão de crises para sua competição tecnológica. A delegação dos EUA será liderada pelo secretário do Tesouro, Scott Bessent, enquanto a China será representada pelo vice

GateNews24m atrás

A RLWRLD lança o modelo de IA RLDX-1 para mãos robóticas industriais

RLWRLD, uma startup de IA de robótica apoiada pela LG Electronics, revelou o RLDX-1, um modelo de base projetado para mãos robóticas de cinco dedos em aplicações industriais, segundo a RLWRLD. A empresa disponibilizou os pesos, o código e os documentos técnicos do modelo no GitHub e no Hugging Face. Model

CryptoFrontier44m atrás

DeepMind AlphaEvolve desempenho interdomínios: multiplicação de matrizes 4×4 atualiza recorde de Strassen 1969, treinamento do Gemini acelera em 1%

O Google DeepMind lançou em 7 de maio (horário dos EUA) o relatório de conquistas do AlphaEvolve. O blog oficial da DeepMind reuniu os avanços concretos do AlphaEvolve desde o seu lançamento: encontrou um método de multiplicação de matrizes complexas 4×4 melhor do que o algoritmo de Strassen de 1969 (48 multiplicações escalares puras), colaborou com matemáticos como Terence Tao para resolver vários difíceis problemas matemáticos de Erdős (Erdős), economizou 0,7% dos recursos globais de computação para os data centers do Google, aumentou em 23% a velocidade dos kernels-chave treinados com o Gemini e reduziu em 1% o tempo total de treinamento do Gemini. Arquitetura: exploração de largura do Gemini Flash + Gemini

ChainNewsAbmedia57m atrás

OpenAI Codex lança extensão para Chrome: permite testar Web App no navegador, acessar Context entre páginas e operar em paralelo

A OpenAI em 7 de maio (horário dos EUA) anunciou a extensão do Chrome do Codex, permitindo que agentes de codificação com o Codex operem diretamente dentro dos navegadores Chrome no macOS e no Windows. A documentação oficial do Codex explica que a extensão permite que o Codex teste apps web sem assumir o controle do navegador do usuário, obtenha contexto em várias abas, use o Chrome DevTools e execute outras tarefas em paralelo. A OpenAI também divulgou que os usuários ativos semanais do Codex ultrapassaram 4 milhões, crescendo 8 vezes desde o início do ano. O que dá para fazer dentro do navegador: testar apps web, obter contexto entre páginas, usar DevTools Extensão do Chrome

ChainNewsAbmedia1h atrás

OpenAI lança o GPT-Realtime-2: leva o raciocínio do GPT-5 para agentes de voz e eleva o contexto para 128K

A OpenAI em 7 de maio (horário dos EUA) divulgou, em uma conferência para desenvolvedores, três novos modelos de voz em tempo real: GPT-Realtime-2, GPT-Realtime-Translate e GPT-Realtime-Whisper, todos disponibilizados para desenvolvedores via Realtime API. O anúncio oficial da OpenAI afirma que o GPT-Realtime-2 é o primeiro da OpenAI com capacidade de GPT-5

ChainNewsAbmedia1h atrás

Visita presencial a laboratórios de IA na China: pesquisadores revelam que a “lacuna de chips e de dados” é a chave da diferença entre EUA e China

O especialista Nathan Lambert, após uma visita aprofundada a vários laboratórios de IA na China, aponta que a principal vantagem do país está na cultura, no talento e na mentalidade pragmática. A pesquisa é priorizada para melhorar a qualidade dos modelos, com estudantes se tornando contribuidores centrais, e há menos disputas internas em colaboração organizacional; ainda assim, existem lacunas em chips, dados e criatividade. O acesso a capacidade computacional externa é limitado por controles dos EUA, e a baixa qualidade dos dados levou à criação de ambientes próprios de treinamento. As empresas fazem open source, mas mantêm a tecnologia central para ajustes finos em seu próprio ambiente; se os EUA apertarem o ecossistema aberto, isso pode afetar a posição de liderança global.

ChainNewsAbmedia1h atrás
Comentário
0/400
Sem comentários