Nvidia « Journée Quantique » en double : le modèle AI open source Ising fait exploser les actions quantiques, l'IA interne termine en une nuit la conception de puces équivalente à 80 mois-homme

robot
Création du résumé en cours

Auteur : Claude, Deep Tide TechFlow

Deep Tide Introduction : Nvidia a publié le 14 avril, lors de la « Journée mondiale de la quantique », la première famille de modèles d’IA quantique open source au monde, Ising, avec une vitesse de correction d’erreurs et de décodage améliorée de 2,5 fois par rapport aux standards de l’industrie, et une précision augmentée de 3 fois.

Les actions liées à la notion de quantique ont connu une hausse collective ce jour-là, IonQ a augmenté de 18 %, D-Wave de 15 %. Le même jour, le scientifique en chef William Dally a révélé lors du GTC 2026 que l’IA avait permis de transférer la bibliothèque standard de composants de puces en 10 mois par 8 personnes en une seule nuit sur un GPU, avec des résultats de conception supérieurs à ceux réalisés manuellement.

Nvidia utilise l’IA pour accélérer deux des problèmes d’ingénierie les plus difficiles : rendre les ordinateurs quantiques réellement utilisables, et améliorer la conception des GPU eux-mêmes, plus rapidement et mieux.

Le 14 avril, lors de la « Journée mondiale de la quantique », Nvidia a lancé la famille de modèles d’IA open source NVIDIA Ising, la première du genre pour la quantique, ce qui a entraîné une forte hausse des actions liées à la quantique. Parallèlement, le scientifique en chef de l’entreprise, William Dally, a dévoilé lors du GTC 2026 les dernières avancées de l’IA dans le processus de conception interne des puces Nvidia, avec une amélioration de l’efficacité d’une tâche atteignant plusieurs centaines de fois.

Deux pistes convergent vers une même conclusion : l’IA passe du rôle d’outil d’application à celui d’infrastructure fondamentale, accélérant à la fois l’industrie en aval (quantique) et l’évolution matérielle de l’IA elle-même.

Premier modèle d’IA quantique open source au monde, ciblant deux grands goulots d’étranglement de la quantique

Selon le communiqué de presse de Nvidia du 14 avril, la famille de modèles Ising comprend deux domaines : Ising Calibration et Ising Decoding, ciblant respectivement deux goulots d’étranglement clés pour la mise en œuvre pratique de la quantique.

Les qubits des processeurs quantiques sont naturellement bruyants, le meilleur processeur actuel ayant environ une erreur toutes les 1000 opérations. Pour que l’ordinateur quantique ait une valeur pratique, le taux d’erreur doit descendre en dessous de 1 sur 10^12.

Ising Calibration est un modèle de langage visuel de 35 milliards de paramètres, capable d’interpréter automatiquement les données de mesure du processeur quantique et de prendre des décisions de calibration, réduisant un processus qui prenait auparavant plusieurs jours à quelques heures. Ising Decoding est une paire de réseaux neuronaux convolutifs 3D (optimisés respectivement pour la vitesse et la précision), utilisée pour le décodage en temps réel de la correction d’erreurs quantiques, étant 2,5 fois plus rapide que le standard open source pyMatching, avec une précision 3 fois supérieure.

Sam Stanwyck, directeur des produits quantiques chez Nvidia, a expliqué la logique de la stratégie open source lors de la présentation : chaque fabricant de matériel quantique ayant ses propres caractéristiques de bruit, le modèle open source leur permet de l’ajuster localement avec leurs propres données, améliorant ainsi la performance tout en protégeant leurs données propriétaires.

Le PDG de Nvidia, Jensen Huang, a exprimé une position plus directe. Dans sa déclaration, il a dit que l’IA devient le plan de contrôle des machines quantiques, transformant les qubits fragiles en un système de GPU quantique évolutif et fiable.

Selon Nvidia, plusieurs institutions ont déjà adopté le modèle Ising, notamment l’École d’ingénierie et de sciences appliquées de Harvard, le Laboratoire national Fermi, IQM Quantum Computers, le Laboratoire national Lawrence Berkeley, et le National Physical Laboratory du Royaume-Uni.

Les actions liées à la quantique en forte hausse, IonQ en hausse de 18 % en une journée

Le jour de la sortie d’Ising, les actions américaines liées à la quantique ont connu une forte hausse collective. Selon Yahoo Finance, IonQ a augmenté d’environ 18 %, D-Wave Quantum de 15 %, Rigetti Computing d’environ 12 %.

Ce rebond à deux chiffres n’a pas modifié la tendance baissière en cours depuis le début de l’année pour ces actions. Avant le 14 avril, IonQ avait chuté d’environ 22 %, D-Wave de 35 %, Rigetti de 23 %. La hausse du jour n’a pas inversé la tendance annuelle, mais l’effet de groupe reste remarquable.

Il est important de noter que cette hausse n’est pas uniquement due à la sortie d’Ising. Le même jour, IonQ a annoncé des progrès dans le réseau quantique et un contrat avec la DARPA, Rigetti a reçu une commande de 8,4 millions de dollars du Centre de développement de calcul avancé en Inde (C-DAC). Plusieurs catalyseurs ont amplifié l’effet sectoriel.

L’institution d’analyse Resonance prévoit que la taille du marché mondial de la quantique dépassera 11 milliards de dollars d’ici 2030. Le rapport publié le même jour par la Quantum Economic Development Consortium (QED-C) indique qu’en 2025, le marché mondial de la quantique atteindra 1,9 milliard de dollars, avec une croissance de 14 % du nombre d’employés dans les entreprises purement quantiques.

Une nuit pour réduire 80 mois-homme : l’IA révolutionne la conception des puces Nvidia

Ising indique une accélération externe, tandis qu’à l’intérieur de Nvidia, l’IA est utilisée pour transformer le processus de conception des puces.

William Dally, scientifique en chef de Nvidia, a révélé lors du GTC 2026, en dialogue avec Jeff Dean, scientifique en chef de Google, plusieurs cas concrets. La donnée la plus marquante concerne la migration de la bibliothèque standard de composants : chaque fois que Nvidia passe à un nouveau procédé semi-conducteur (par exemple, de 7 nm à 5 nm), il faut redessiner entre 2500 et 3000 composants pour s’adapter à la nouvelle technologie. Cela prenait auparavant 8 ingénieurs environ 10 mois. Nvidia a développé un outil d’apprentissage par renforcement appelé NVCell, qui peut désormais réaliser cette tâche en une nuit sur un seul GPU, avec des composants dont la surface, la consommation et la latence sont aussi bonnes voire meilleures que celles conçues manuellement.

Selon Tom’s Hardware, Dally compare ce processus à un « jeu vidéo de correction des règles de conception », l’apprentissage par renforcement étant particulièrement adapté à ce type d’optimisation par essais et erreurs.

À un niveau d’abstraction supérieur, Nvidia a développé deux grands modèles linguistiques internes, Chip Nemo et Bug Nemo. Basés sur 30 ans de données propriétaires, ils couvrent tout le code RTL, la documentation de conception matérielle et les spécifications d’architecture des GPU de l’entreprise. Dally explique que les ingénieurs débutants peuvent poser des questions directement à Chip Nemo, évitant ainsi de déranger constamment les concepteurs seniors. Il décrit Chip Nemo comme « un mentor très patient ».

En termes d’optimisation de circuits, Nvidia applique également l’apprentissage par renforcement à des problèmes classiques comme la chaîne de prévision de report. Dally affirme que les solutions générées par l’IA « sont complètement étranges pour l’humain, mais leur performance est 20 à 30 % meilleure que celle des conceptions humaines ».

Long chemin vers une conception de puces entièrement automatisée par l’IA

Cependant, Dally précise également les limites de ses ambitions. Il souhaite réaliser une conception de puces entièrement automatisée, mais il en est encore loin.

Actuellement, la conception de puces par l’IA chez Nvidia reste un soutien, pas un remplacement. L’IA intervient dans la migration de composants standard, le tri et le résumé des bugs, la prédiction de placement et de routage, l’exploration de l’espace d’architecture, mais aucune étape ne forme encore un processus entièrement automatisé de bout en bout. Dally envisage à long terme un modèle multi-agent, où différents systèmes d’IA seraient responsables de différentes phases de la conception, à l’image de la division du travail dans une équipe d’ingénierie humaine.

Selon Computer Weekly, Dally et Dean ont également discuté de l’impact de l’IA sur les outils logiciels traditionnels : lorsque la vitesse d’exécution de l’IA dépasse celle de l’humain, les outils logiciels classiques conçus pour l’utilisateur humain deviendront des goulots d’étranglement, nécessitant une refonte complète, du développement logiciel aux applications métier.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler