A discussão sobre um mecanismo de pré-aprovação de IA da Casa Branca é divulgada, e as declarações de Hassett são negadas oficialmente no dia seguinte

白宮AI預審機制討論

O director do Conselho Económico Nacional (NEC) da Casa Branca, Kevin Hassett, afirmou numa entrevista à Fox Business a 7 de maio que o Governo de Trump está a estudar a emissão de uma ordem executiva para exigir que os modelos de IA passem por uma revisão de segurança do Governo antes de serem disponibilizados publicamente, comparando o processo ao modelo da FDA para a aprovação prévia à comercialização de medicamentos. Contudo, segundo a Politico a 8 de maio, altos responsáveis da Casa Branca disseram posteriormente que esses comentários foram «tirados do contexto».

Evolução do caso: O NYT chega à exposição pública de contradições na política da Casa Branca

A 4 de maio de 2026, o The New York Times noticiou que a Casa Branca estava a discutir a criação de um mecanismo de revisão prévia à publicação de modelos de IA, então descrito como «em consideração». A 7 de maio de 2026, Kevin Hassett, em entrevista à Fox Business, declarou publicamente: «Estamos a estudar se podemos, por meio de uma ordem executiva, exigir que a IA que poderá vir a apresentar vulnerabilidades só seja colocada em uso depois de demonstrar a sua segurança — como os fármacos da FDA».

A 7 de maio de 2026, já tarde da noite, Susie Wiles, chefe de gabinete da Casa Branca, publicou no X que o Governo «não tem a responsabilidade de escolher os vencedores e os perdedores», acrescentando que a implementação segura de tecnologias fortes deveria ser impulsionada «por inovadores notáveis dos EUA, e não por organismos burocráticos». De acordo com o registo oficial da sua conta, a publicação acima mencionada foi o quarto conteúdo divulgado desde que Wiles criou a conta.

Citados pela Politico três informadores anónimos, a Casa Branca está a discutir fazer com que as agências de informação façam uma avaliação preliminar antes da publicação pública dos modelos de IA. Um responsável do Governo dos EUA disse na notícia que, entre os objetivos, está «garantir que o sector de informações estude e use essas ferramentas antes de os adversários como a Rússia e a China compreenderem as novas capacidades».

Entidades envolvidas e enquadramento da política

CAISI alarga acordos voluntários de avaliação de segurança

O Centro de Normas e Inovação de IA (CAISI), que integra o Departamento do Comércio, anunciou esta semana que celebrou acordos de avaliação de segurança de IA com a Google DeepMind, a Microsoft e a xAI, alargando o âmbito aos anteriores já incluídos, nomeadamente a OpenAI e a Anthropic. O quadro de avaliação voluntária da CAISI é aplicado desde 2024.

Subsecretário de Defesa apoia publicamente mecanismo de pré-avaliação

O sub-secreário de Defesa Emil Michael, a 8 de maio de 2026, numa conferência de IA em Washington, manifestou publicamente apoio à pré-avaliação governamental antes da publicação de modelos de IA e, no seu discurso, citou o sistema Mythos da Anthropic como caso de referência, afirmando que tais modelos «mais cedo ou mais tarde vão surgir» e que o Governo precisa de criar mecanismos de resposta.

Contexto de política do Governo de Trump e da Anthropic

Segundo a Politico, o secretário da Defesa Pete Hegseth, em março de 2026, colocou a Anthropic numa lista de riscos com base em riscos para a cadeia de abastecimento e proibiu que os seus modelos fossem usados em contratos do Departamento de Defesa. Depois disso, Trump exigiu separadamente que as agências federais deixassem de usar produtos da Anthropic no prazo de seis meses. Entretanto, no mês passado, a Anthropic revelou que o seu sistema de IA Mythos tem capacidades fortes de exploração de vulnerabilidades de software, para além do limite de segurança da disponibilização pública, e várias agências federais apresentaram pedidos de ligação em seguida. A OpenAI, a 8 de maio de 2026, anunciou que vai disponibilizar uma pré-visualização limitada da GPT-5,5-Cyber, uma nova ferramenta que consegue detetar e corrigir vulnerabilidades de rede.

Posturas do sector contra mecanismos de revisão obrigatória

O presidente do Information Technology and Innovation Foundation (ITIF), Daniel Castro, disse na reportagem da Politico: «Se a pré-aprovação puder ser recusada antes do lançamento, isso é um grande problema para qualquer empresa. Se um concorrente for aprovado e outro não, a diferença de semanas ou meses no acesso ao mercado terá um impacto enorme.» Os financiadores do ITIF incluem a Anthropic, a Microsoft e a Meta.

Um alto responsável da Casa Branca, na mesma reportagem, afirmou: «Há de facto um ou dois que estão muito entusiasmados com a regulamentação governamental, mas são apenas uma minoria.» O responsável pediu para não ser identificado, alegando necessidade de descrever discussões sensíveis sobre políticas.

Perguntas frequentes

Quando e onde é que Kevin Hassett fez declarações sobre pré-avaliação de IA?

De acordo com a Politico, Kevin Hassett apresentou publicamente o tema numa entrevista à Fox Business a 7 de maio de 2026, indicando que o Governo está a estudar uma ordem executiva para exigir que os modelos de IA passem por uma revisão de segurança governamental antes de serem divulgados, comparando com o processo de aprovação de fármacos da FDA.

Em que se baseia a negação, pela Casa Branca, das declarações de Hassett?

Segundo a Politico a 8 de maio de 2026, altos responsáveis da Casa Branca disseram que os comentários de Hassett foram «um pouco tirados do contexto» e que a direção da política do Governo é estabelecer parcerias com empresas, e não impor regulamentação governamental. A chefe de gabinete, Susie Wiles, voltou a escrever para reforçar que o Governo não intervém na escolha do mercado.

Que acordos adicionais de avaliação de segurança de IA foram incluídos pela CAISI esta semana?

De acordo com o comunicado da CAISI esta semana, os acordos agora adicionados abrangem a Google DeepMind, a Microsoft e a xAI, além dos anteriormente já cobertos: a OpenAI e a Anthropic. O quadro de avaliação voluntária é aplicado desde 2024.

Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.

Related Articles

A Anthropic está a considerar uma angariação de fundos de 50 mil milhões de dólares no verão, com uma avaliação pré-investimento de cerca de 900 mil milhões.

De acordo com o jornal britânico «Financial Times», a 8 de maio, o programador do Claude, a Anthropic, está a considerar avançar no verão com uma nova ronda de financiamento, planeando angariar cerca de 50 mil milhões de dólares, com uma avaliação pré-investimento de cerca de 900 mil milhões de dólares; após a conclusão, a avaliação deverá ficar perto de 1 bilião de dólares. O «Financial Times», citando cinco fontes com conhecimento do assunto, afirma que as negociações do financiamento ainda estão numa fase inicial, que a Anthropic ainda não aceitou qualquer oferta e que a operação deverá ficar concluída no prazo de dois meses.

MarketWhisper31m atrás

As acções da SanDisk disparam 430% com a procura de armazenamento para IA

A SanDisk, fabricante norte-americana de memórias flash e SSDs saída da Western Digital no ano passado, encerrou a 6 de maio a 1.409,98 USD, com as ações a dispararem quase 430% este ano à medida que os investidores apostam na procura crescente por armazenamento para servidores de IA, segundo o Chosun Daily. Contratos de Fornecimento a Longo Prazo Garantem Receitas A empresa

CryptoFrontier50m atrás

Executivos da Microsoft duvidaram da OpenAI em 2017-2018, investiram $1B para impedir uma mudança para a Amazon

De acordo com os processos judiciais acompanhados pela Beating News, e-mails de mais de uma dúzia de executivos da Microsoft, incluindo o CEO Satya Nadella, revelaram entre 2017 e 2018 a existência de ceticismo interno sobre a OpenAI antes do investimento de 1 mil milhões de dólares da empresa. Nadella consultou colegas sobre o apoio ao investimento de 300

GateNews51m atrás

O SNS lança o protocolo MCP, permitindo que agentes de IA gerirem domínios .sol a 7 de maio

De acordo com o anúncio oficial da SNS em 7 de maio de 2026, o SNS MCP (Model Context Protocol) entrou em funcionamento, permitindo que agentes de IA descubram, registem e geram conta de domínios .sol na Solana através de interações conversacionais. Os utilizadores podem agora ligar plataformas de IA compatíveis, como o Claude AI e o OpenClaw, a

GateNews1h atrás

A Coreia do Sul lança um fundo de cibersegurança de $8M I para 50 empresas

O Ministério da Ciência e das TIC da Coreia do Sul e a Agência Coreana de Internet e Segurança vão investir 12 mil milhões de won (US$8,31 milhões) no Projeto de Apoio a Novas Tecnologias em Segurança da Informação de 2026, segundo o Chosun Daily. O programa tem como objetivo apoiar 50 empresas que trabalham em 18 tarefas de segurança em IA

CryptoFrontier1h atrás

A OpenAI alarga o projeto-piloto de anúncios do ChatGPT à Coreia do Sul, Reino Unido, Japão, Brasil e México a 7 de maio

De acordo com o The Korea Times, a OpenAI anunciou a 7 de maio que irá expandir o seu piloto de anúncios do ChatGPT para a Coreia do Sul, o Reino Unido, o Japão, o Brasil e o México, para monetizar utilizadores gratuitos para além dos seus mercados iniciais (EUA, Canadá, Austrália e Nova Zelândia). O teste irá visar utilizadores adultos nos planos Free e Go,

GateNews1h atrás
Comentar
0/400
Nenhum comentário