OpenAI, Anthropic et Google lancent un mécanisme conjoint pour détecter la distillation d’IA

AI蒸餾行為

Selon un rapport de Bloomberg daté du 16 avril, OpenAI, Anthropic PBC et Google ont lancé une collaboration via l’organisation à but non lucratif de l’industrie Frontier Model Forum, en partageant des informations afin de détecter et d’empêcher des comportements de distillation d’IA adversaire en violation des conditions de service. OpenAI a confirmé à Bloomberg qu’elle a participé à ce travail de partage d’informations concernant la distillation adversaire.

Cadre de collaboration : mécanisme de partage d’informations de Frontier Model Forum

Frontier Model Forum a été fondé en 2023 conjointement par OpenAI, Anthropic, Google et Microsoft. D’après un rapport de Bloomberg, les trois entreprises échangent actuellement des informations via cette organisation, dans le but d’identifier de grandes requêtes de données adversaires, de suivre les tentatives de distillation en infraction aux conditions de service et de coordonner l’arrêt des activités concernées. Google a déjà publié un billet indiquant qu’elle avait constaté une augmentation des tentatives d’extraction des modèles.

Selon Bloomberg, ce type de mécanisme de partage d’informations correspond à des pratiques existantes dans l’industrie de la cybersécurité, qui, de longue date, renforce la défense en échangeant des données d’attaques et des stratégies d’adversaires entre entreprises.

Mémorandum du Congrès d’OpenAI et registre des allégations associées

D’après un mémo soumis par OpenAI au House Select Committee on China (comité spécial de la Chambre des représentants sur la Chine) des États-Unis (février 2026), OpenAI accuse l’entreprise chinoise d’IA DeepSeek d’avoir tenté de « profiter de la mise à contribution » d’OpenAI et d’autres technologies développées par des laboratoires américains de pointe, et indique qu’elle continue d’utiliser des techniques de distillation de données pour extraire des résultats de modèles américains afin de développer de nouvelles versions de robots conversationnels, ainsi que que les méthodes employées deviennent de plus en plus sophistiquées.

Anthropic a publié une déclaration en février 2026, identifiant trois laboratoires d’IA chinois — DeepSeek, Moonshot et MiniMax — et les accuse d’avoir extrait illégalement les capacités du modèle Claude via une distillation d’IA adversaire. Anthropic avait auparavant interdit aux entreprises chinoises d’utiliser Claude en 2025. Bloomberg a également rapporté qu’après la publication par DeepSeek de son modèle de raisonnement R1 en janvier 2025, Microsoft et OpenAI avaient ouvert des enquêtes sur la question de savoir si l’entreprise avait extrait illégalement des données de modèles américains.

Position de l’administration Trump et limites de conformité en matière d’antitrust

D’après des documents de politique publique, des responsables de l’administration Trump ont indiqué qu’ils étaient disposés à favoriser le partage d’informations entre les sociétés d’IA afin de répondre aux menaces de distillation d’IA adversaire. Le plan d’action sur l’intelligence artificielle publié par le président Trump appelle explicitement à mettre en place un centre de partage d’informations et d’analyse, dont une partie des objectifs vise à répondre auxdits comportements.

Selon Bloomberg, l’étendue du partage d’informations de distillation technique des trois entreprises demeure encore limitée, car elles ne sont pas certaines, dans le cadre des directives antitrust en vigueur, quelles informations peuvent être partagées de manière conforme ; les trois entreprises ont déclaré vouloir élargir le périmètre de la collaboration une fois que le gouvernement américain aura clarifié le cadre de directives concerné.

Questions fréquentes

OpenAI, Anthropic et Google collaborent-ils via quelle organisation ?

Selon Bloomberg, les trois entreprises effectuent un partage d’informations via Frontier Model Forum ; l’organisation, à but non lucratif de l’industrie, a été fondée conjointement en 2023 par OpenAI, Anthropic, Google et Microsoft.

Qu’a soumis OpenAI au Congrès américain concernant le problème de distillation d’IA ?

D’après les informations publiques d’OpenAI, OpenAI a soumis au House Select Committee on China un mémo (février 2026), en accusant DeepSeek d’utiliser en continu des techniques de distillation de données pour extraire des résultats de modèles américains, et de s’en servir pour développer une nouvelle version de chatbot.

Quelles actions déjà rendues publiques Anthropic a-t-elle prises concernant le problème de distillation des laboratoires d’IA chinois ?

D’après la déclaration publique d’Anthropic, Anthropic a interdit aux entreprises chinoises d’utiliser le modèle Claude en 2025, puis a identifié en février 2026 trois laboratoires d’IA chinois — DeepSeek, Moonshot et MiniMax — et les accuse d’avoir extrait illégalement les capacités du modèle Claude via une distillation d’IA adversaire.

Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.

Articles similaires

Le mythe d’Anthropic est trop puissant ! La Maison-Blanche envisagerait d’exiger qu’un nouveau modèle d’IA soit soumis à une revue de sécurité par le gouvernement avant sa publication

En raison des capacités puissantes du Mythe Anthropic et des risques de sécurité, la Maison-Blanche envisage de mettre en place un contrôle gouvernemental avant la publication d’un nouveau modèle d’IA, en créant un groupe de travail interministériel chargé d’examiner la question et en s’appuyant sur le modèle britannique pour uniformiser les normes. Ce changement de politique tranche nettement avec l’attitude laxiste du passé. Les controverses liées aux contrats d’Anthropic et au Pentagone ainsi qu’aux risques de sécurité nationale se poursuivent. La coopération en matière d’IA à des fins civiles et militaires s’accélère, et l’équilibre entre innovation et sécurité demeure un défi.

ChainNewsAbmediaIl y a 10m

OpenClaw publie la version 2026.5.4 le 5 mai, en optimisant l’installation des plugins et le démarrage de la passerelle

Selon BlockBeats, OpenClaw a publié la version 2026.5.4 le 5 mai, avec des améliorations de l’installation des plugins, du démarrage de la passerelle et de la stabilité de la plateforme. La mise à jour inclut une récupération plus fluide des packages de plugins entre npm et ClawHub, ainsi que des chemins de démarrage de la passerelle plus rapides avec une analyse à froid réduite ov

GateNewsIl y a 17m

Vobiz.ai lève $1M de financement de démarrage pour l’infrastructure d’IA vocale

La start-up d’infrastructure de téléphonie basée à Bengaluru pour l’IA vocale, Vobiz.ai, a levé 1 million de dollars en financement de démarrage, mené par Piper Serica VC Fund, d’après la société. Fondée par d’anciens dirigeants de Plivo et Finin, Suman Gandham et Vikash Srivastava, Vobiz

GateNewsIl y a 33m

Le PDG d’OpenAI, Brockman, révèle devant le tribunal une participation de 30 milliards de dollars, étroitement entremêlée avec les investissements privés d’Altman

Le 4 mai, lors du procès intenté par Musk, le tribunal a révélé que Greg Brockman détenait environ 30 milliards de dollars d’actions d’OpenAI, avec des investissements privés de Sam Altman fortement imbriqués, impliquant trois intérêts : Cerebras, Helion Energy et la fondation familiale d’Altman. Cette imbrication est considérée comme une preuve de la motivation de Brockman à soutenir la lucrativisation, et elle touche aussi aux controverses de gouvernance autour du passage d’OpenAI du statut à but non lucratif à celui à but lucratif.

ChainNewsAbmediaIl y a 39m

La Commission européenne a pris contact avec Anthropic Mythos : Dombrovskis confirme l’intervention de l’UE dans un modèle d’IA confidentiel

La Commission européenne confirme qu’elle discute avec Anthropic des implications techniques et réglementaires de Mythos, en tenant compte du déséquilibre d’accès non symétrique entre les États-Unis et l’Europe en matière d’IA pour la cybersécurité. Elle pourrait faire avancer un accès conditionnel via des outils tels que l’AI Act, le règlement sur les subventions étrangères et NIS2/DORA, en exigeant que Mythos fournisse un accès équivalent aux banques européennes ou des résultats de tests. Ensuite, elle observera les réponses et la transparence de Glasswing.

ChainNewsAbmediaIl y a 41m

Mise à jour de la chaîne d’approvisionnement mobile d’OpenAI : le processeur serait exclusivement fourni par MediaTek ? Le calendrier de production serait avancé au premier semestre 2027

Guo Ming-chi indique qu’OpenAI accélère le développement de son premier téléphone doté d’un agent IA, avec pour objectif une production en série au premier semestre 2027. Cela pourrait également permettre à MediaTek de décrocher seule les commandes de processeurs, avec une puce personnalisée basée sur le Dimensity 9600, produite au deuxième semestre 2026 par le procédé N2P de TSMC. Les spécifications clés incluent un ISP à haut niveau de dynamique, deux NPU, LPDDR6, UFS 5.0 et une sécurité pKVM. Si tout se passe bien, les expéditions devraient atteindre environ 30 millions d’unités en 2027—2028, ce qui aurait une signification notable pour le récit autour de l’IPO d’OpenAI et pour son entrée dans le vaste marché de la consommation.

ChainNewsAbmediaIl y a 49m
Commentaire
0/400
Aucun commentaire