Fuite sur le débat à la Maison-Blanche concernant un mécanisme d’enquête préalable par l’IA, les déclarations de Hassett démenties officiellement le lendemain

白宮AI預審機制討論

Le directeur du Conseil économique national (NEC) de la Maison-Blanche, Kevin Hassett, a déclaré lors d’une interview accordée à Fox Business le 7 mai que l’administration Trump étudie la possibilité d’exiger, par décret, que des modèles d’IA passent un contrôle de sécurité gouvernemental avant leur publication publique. Il a fait une analogie avec la procédure d’autorisation préalable à la mise sur le marché appliquée par la FDA aux médicaments. Mais, selon Politico du 8 mai, des responsables de haut niveau de la Maison-Blanche ont ensuite qualifié ces propos de « sortie de son contexte ».

Déroulement de l’événement : Le rapport du New York Times révèle des contradictions de politique à la Maison-Blanche

Le 4 mai 2026, le New York Times a rapporté que la Maison-Blanche étudiait la mise en place d’un mécanisme d’examen préalable à la publication des modèles d’IA, à l’époque présenté comme « envisagé ». Le 7 mai 2026, lors de son interview sur Fox Business, Kevin Hassett a déclaré publiquement : « Nous étudions la possibilité, par décret, d’exiger que l’IA potentiellement génératrice de vulnérabilités ne soit déployée qu’après avoir démontré sa sécurité — comme pour les médicaments de la FDA. »

Dans la nuit du 7 mai 2026, le chef de cabinet de la Maison-Blanche, Susie Wiles, a publié sur la plateforme X : le gouvernement « n’a pas à choisir les gagnants et les perdants », et a affirmé que le déploiement sécurisé de technologies puissantes devrait être porté par « les innovateurs exceptionnels des États-Unis plutôt que par des organismes bureaucratiques ». D’après les archives de son compte officiel, ce message constitue le quatrième contenu publié depuis la création du compte de Wiles.

D’après Politico, citant trois personnes informées sous couvert d’anonymat, la Maison-Blanche discute de la possibilité de faire procéder à une évaluation préalable par des agences de renseignement avant la publication publique des modèles d’IA. Un responsable du gouvernement américain interrogé dans l’article a indiqué que l’un des objectifs était « de permettre au milieu du renseignement d’étudier et d’exploiter d’abord ces outils avant que des adversaires comme la Russie et la Chine ne comprennent les nouvelles capacités ».

Organismes concernés et cadre de politique

CAISI élargit les accords d’évaluation de sécurité volontaires

Le Centre américain des normes et de l’innovation en IA (CAISI), rattaché au ministère du Commerce, a annoncé cette semaine avoir conclu des accords d’évaluation de sécurité de l’IA avec Google DeepMind, Microsoft et xAI. Le périmètre a été élargi à OpenAI et Anthropic, déjà inclus auparavant. Le cadre d’évaluation volontaire de la CAISI est en vigueur depuis 2024.

Le sous-ministre à la Défense soutient publiquement un mécanisme d’évaluation préalable

Le sous-secrétaire adjoint à la Défense, Emil Michael, a, le 8 mai 2026, lors d’une conférence sur l’IA à Washington, apporté son soutien public à une évaluation préalable gouvernementale avant la publication de modèles d’IA. Dans son intervention, il a cité le système Mythos d’Anthropic comme cas de référence, affirmant que ces modèles « finiront tôt ou tard par apparaître » et que le gouvernement doit mettre en place un mécanisme de réponse.

Contexte de politique de l’administration Trump et d’Anthropic

D’après Politico, le secrétaire à la Défense Pete Hegseth a, en mars 2026, inscrit Anthropic sur une liste de risques en invoquant des risques liés à la chaîne d’approvisionnement, et a interdit l’utilisation de ses modèles dans les contrats du ministère de la Défense. Par la suite, Trump a demandé séparément aux agences fédérales de cesser d’utiliser les produits d’Anthropic dans un délai de six mois. Dans le même temps, le mois dernier, Anthropic a révélé que son système d’IA Mythos possédait une capacité puissante d’exploration de vulnérabilités logicielles, dépassant les seuils de sécurité avant publication publique, et plusieurs agences fédérales ont alors présenté des demandes d’accès. Le 8 mai 2026, OpenAI a annoncé un aperçu limité de GPT-5.5-Cyber, un nouvel outil capable de détecter et de corriger des failles de cybersécurité.

Positions d’opposition de l’industrie au mécanisme d’examen obligatoire

Le président du Information Technology and Innovation Foundation (ITIF), Daniel Castro, a déclaré dans un article de Politico : « Si l’on peut refuser l’approbation avant mise sur le marché, c’est un gros problème pour toute entreprise. Si un concurrent obtient l’approbation mais pas un autre, l’écart de quelques semaines ou de quelques mois pour l’accès au marché aura un impact énorme. » Les financeurs de l’ITIF incluent Anthropic, Microsoft et Meta.

Dans le même article, un haut responsable de la Maison-Blanche a déclaré : « Il y a bien un ou deux individus très enthousiastes à l’idée de la surveillance du gouvernement, mais ils ne sont qu’une minorité. » Le responsable a obtenu l’anonymat au motif de la description de discussions de politique sensible.

Questions fréquentes

À quel moment et où Kevin Hassett a-t-il tenu ses propos sur l’évaluation préalable de l’IA ?

D’après Politico, Kevin Hassett a, le 7 mai 2026, lors d’une interview accordée à Fox Business, déclaré publiquement que le gouvernement étudiait un décret exigeant que les modèles d’IA passent un contrôle de sécurité gouvernemental avant d’être publiés, en faisant l’analogie avec le processus d’approbation de la FDA pour les médicaments.

Sur quoi la Maison-Blanche fonde-t-elle le démenti des propos de Hassett ?

Selon Politico du 8 mai 2026, un responsable de haut niveau de la Maison-Blanche a déclaré que les propos de Hassett « relevaient quelque peu du hors-sujet », et que l’orientation de la Maison-Blanche consiste à établir des partenariats avec les entreprises plutôt qu’à déployer une surveillance gouvernementale. Le chef de cabinet Susie Wiles a, par ailleurs, publié un message réitérant que le gouvernement ne s’immisce pas dans les choix du marché.

Quels nouveaux accords d’évaluation de sécurité de l’IA CAISI ajoute-t-il cette semaine ?

D’après la déclaration de CAISI cette semaine, ces accords supplémentaires couvrent Google DeepMind, Microsoft et xAI, en plus de OpenAI et Anthropic déjà inclus. Le cadre d’évaluation volontaire est en vigueur depuis 2024.

Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.

Articles similaires

SoftBank publie ses résultats annuels, alors que les investisseurs remettent en question le plan de financement de US$60B OpenAI

D’après Bloomberg, SoftBank Group a publié ses résultats annuels pour l’exercice clos le mois de mars, tandis que les investisseurs évaluent comment la société financera son investissement prévu de 60 milliards de dollars dans OpenAI. La société a enregistré un bénéfice net d’environ 3,3 billions de yens (20,8 milliards de dollars) pour l’exercice, aidé par

GateNewsIl y a 1h

Les offres d’emploi en IA augmentent de 50 % alors que la guerre des talents en Asie remodèle l’emploi

Perturbation des talents en IA à travers l’Asie Les offres d’emploi liées à l’IA ont augmenté de 50% d’une année sur l’autre, même si le marché de l’emploi global reste stable, d’après Peter Bithos, directeur commercial en chef de Seek, qui a évoqué, dans un récent épisode de podcast axé sur la manière dont les

CryptoFrontierIl y a 1h

Yu Wenhao, ancien chercheur en IA de Tencent, rejoint OpenAI en tant que chercheur en RIA (intelligence artificielle générale) le mois dernier

D’après Beating, Yu Wenhao, ancien chercheur principal au laboratoire Seattle de Tencent AI, a rejoint OpenAI le mois dernier en tant que chercheur en recherche AGI. Il a confirmé sur LinkedIn qu’il contribuera à façonner les modèles d’IA de prochaine génération et à faire avancer le développement de l’AGI. Yu est titulaire d’un doctorat en informatique de

GateNewsIl y a 1h

Anthropic envisage un financement estival de 50 milliards de dollars, avec une valorisation préalable estimée à environ 9 billions.

Selon le Financial Times britannique, le 8 mai, le développeur de Claude, Anthropic, envisage de lancer une nouvelle levée de fonds à l’été, visant à réunir environ 50 milliards de dollars, pour une valorisation pré-money d’environ 900 milliards de dollars ; une fois finalisée, la valorisation devrait approcher 1 billion de dollars. Le Financial Times cite cinq personnes au courant du dossier : les discussions sur la levée sont pour l’instant à un stade précoce, Anthropic n’a pas encore accepté d’offre, et la levée devrait être bouclée dans un délai de deux mois.

MarketWhisperIl y a 1h

L’action SanDisk bondit de 430 % sur fond de la demande de stockage liée à l’IA

SanDisk, un fabricant américain de mémoire flash et de SSD issu de Western Digital l’an dernier, a clôturé à 1 409,98 dollars US le 6 mai, ses actions ayant bondi d’environ 430% depuis le début de l’année, les investisseurs pariant sur une hausse de la demande pour le stockage des serveurs d’IA, d’après Chosun Daily. Des contrats d’approvisionnement à long terme sécurisent les revenus La société

CryptoFrontierIl y a 2h

Les dirigeants de Microsoft doutaient d’OpenAI en 2017-2018, ont investi $1B pour empêcher un passage vers Amazon

D’après des dépôts judiciaires suivis par Beating News, des e-mails de plus d’une douzaine d’exécutifs de Microsoft, dont le PDG Satya Nadella, indiquent que, entre 2017 et 2018, des doutes internes existaient concernant OpenAI avant le versement de l’investissement de 1 milliard de dollars de la société. Nadella a consulté des collègues au sujet du soutien à OpenAI pour 300

GateNewsIl y a 2h
Commentaire
0/400
Aucun commentaire