Vera Rubin : La transformation silencieuse que NVIDIA prépare pour 2026

Dans un mouvement marquant un tournant significatif dans sa stratégie, NVIDIA a choisi de ne pas présenter de cartes graphiques grand public au CES 2026. À la place, Jensen Huang est monté sur scène avec quelque chose de bien plus ambitieux : une plateforme de calcul de 2,5 tonnes qui promet de redéfinir l’entraînement et l’inférence des modèles d’intelligence artificielle.

Quand la conception de puces brise ses propres règles

La véritable surprise ne réside pas dans la taille du châssis, mais dans sa composition interne. La plateforme Vera Rubin (nommée ainsi en l’honneur de l’astronome qui a découvert la matière noire) a brisé une règle interne que NVIDIA maintient depuis des années : chaque génération de produits ne redessine que 1 à 2 puces au maximum.

Cette fois, la société a redessiné simultanément 6 puces différentes, complétant ainsi le cycle de développement et passant directement en production de masse. La raison est pragmatique : la Loi de Moore ralentit, mais les modèles d’IA continuent d’exiger une croissance de performance annuelle de 10 fois. La seule solution était d’innover non pas dans un composant, mais dans toute l’architecture.

Les six piliers de Vera Rubin

Vera CPU : Le cœur de calcul avec 88 cœurs Olympus personnalisés, capable de traiter 176 threads simultanément. Sa mémoire système atteint 1,5 To, le triple de celle de sa prédécesseure Grace, avec une bande passante NVLink C2C de 1,8 To/s.

Rubin GPU : Le véritable moteur d’inférence. Offre une puissance NVFP4 de 50 PFLOPS, cinq fois supérieure à l’architecture Blackwell précédente. Avec 336 milliards de transistors, il intègre la troisième génération de moteurs Transformer, permettant d’ajuster dynamiquement la précision selon chaque modèle.

Connectivité et stockage : ConnectX-9 fournit Ethernet à 800 Gb/s. Le processeur BlueField-4 DPU gère la nouvelle génération de stockage pour l’IA, combinant une CPU Grace de 64 cœurs avec des capacités de 800 Gb/s.

Infrastructure de communication : La puce commutatrice NVLink-6 connecte 18 nœuds de calcul, permettant à jusqu’à 72 GPUs Rubin de fonctionner comme un seul système avec 3,6 To/s de bande passante all-to-all. Spectrum-6 ajoute 512 canaux optiques de 200 Gbps chacun, grâce à l’intégration de silicium photonique de TSMC COOP.

L’impact en chiffres : quand l’investissement se multiplie

Le système NVL72 de Vera Rubin atteint 3,6 EFLOPS en tâches d’inférence NVFP4, cinq fois plus que Blackwell. En entraînement, il atteint 2,5 EFLOPS, une augmentation de 3,5 fois. Mais le plus spectaculaire est la mémoire : 54 To de LPDDR5X (le triple) et 20,7 To de HBM (1,5 fois plus).

Pour un centre de données de 1 GW coûtant 50 milliards de dollars, cela ne représente pas seulement une amélioration technique. Cela signifie que le débit en tokens d’IA générés par watt et dollar s’améliore de 10 fois, doublant directement la capacité de revenus de l’infrastructure.

Entraîner un modèle de 10 billions de paramètres ne nécessite désormais qu’un quart des systèmes Blackwell précédents. Le coût par token généré diminue à environ 1/10 de l’ancien.

Résoudre le goulet d’étranglement : la mémoire de contexte

Pendant des mois, l’industrie de l’IA a été confrontée à un problème croissant : le « KV Cache » ou mémoire de travail que les modèles génèrent s’épuise rapidement lors de conversations longues. Vera Rubin le résout en déployant des processeurs BlueField-4 dans le châssis, chacun avec 150 To de mémoire de contexte.

Cette approche fournit à chaque GPU 16 To supplémentaires de mémoire (alors qu’initialement il ne dispose que d’environ 1 To), tout en maintenant une bande passante de 200 Gbps sans sacrifier la vitesse. Le réseau Spectrum-X, conçu spécifiquement pour l’IA générative, garantit que ces « notes adhésives » dispersées sur des milliers de GPUs fonctionnent comme une mémoire cohérente unique.

Jensen Huang a calculé que Spectrum-X peut améliorer le débit de 25 %, ce qui équivaut à économiser 5 milliards de dollars dans un centre de données de cette envergure. « C’est pratiquement gratuit », a résumé.

Sécurité chiffrée à chaque couche

Toutes les données en transit, stockage et calcul sont chiffrées, y compris les bus PCIe, la communication NVLink et les transferts CPU-GPU. Les entreprises peuvent déployer des modèles sur des systèmes externes sans craindre de fuites de données.

La transition vers l’IA physique et l’intelligence des agents

Tandis que Vera Rubin fournit la puissance brute, NVIDIA a annoncé un changement de paradigme plus profond : l’ère des « agents intelligents » et de l’IA physique est là.

Jensen Huang a lancé un appel particulier à la communauté open source, soulignant comment DeepSeek V1 a surpris le monde l’année dernière en tant que premier système d’inférence open source, déclenchant une vague d’innovation. Il a reconnu Kimi K2 et DeepSeek V3.2 comme leaders dans l’espace open source, démontrant que NVIDIA construit désormais sur cet écosystème plutôt que de le concurrencer.

La stratégie ne consiste pas seulement à vendre des pelles. NVIDIA a développé l’ordinateur superpuissant DGX Cloud (valant des milliards) et des modèles de pointe comme synthesia de protéines (La Protéine) et OpenFold 3. Sa famille open source Nemotron inclut des modèles de voix, multimodaux, de récupération augmentée et de sécurité.

Alpamayo : conduite autonome avec raisonnement

Le véritable point fort de l’événement a été Alpamayo, le premier système de conduite autonome au monde doté de capacités de pensée et de raisonnement. Contrairement à la conduite autonome basée sur des règles, Alpamayo raisonne comme un conducteur humain, décomposant des scénarios complexes en éléments de sens commun.

« Il vous dira ce qu’il va faire ensuite et pourquoi il le décide », a expliqué Jensen Huang. La Mercedes CLA avec cette technologie sera lancée aux États-Unis au premier trimestre 2026, qualifiée de voiture la plus sûre au monde par NCAP, grâce à l’architecture de « double pile de sécurité » que NVIDIA a développée.

Robots, usines et l’avenir de l’IA physique

NVIDIA a présenté une stratégie intégrée de robotique. Tous les robots seront équipés du mini-ordinateur Jetson et entraînés dans le simulateur Isaac de la plateforme Omniverse. La vision est claire : conception de puces, architecture de systèmes et simulation d’usines, tout accéléré par l’IA physique.

Jensen Huang a invité des robots humanoïdes et quadrupèdes de Boston Dynamics et Agility sur scène, en soulignant que l’usine elle-même est le plus grand robot. Même les robots de Disney ont été entraînés sur des ordinateurs et validés en simulation avant de faire face à la gravité dans le monde réel.

Le message de fond

Dans un contexte où le scepticisme sur la « bulle de l’IA » grandit et où les limites de la Loi de Moore deviennent évidentes, Jensen Huang devait démontrer par des faits concrets ce que l’IA peut accomplir.

Avant, NVIDIA fabriquait des puces pour le monde virtuel. Maintenant, ils montrent eux-mêmes comment l’IA physique — sous forme de conduite autonome et de robots humanoïdes — entre dans le monde réel. Comme il l’a dit, lorsque la bataille commence, le secteur de la « industrie militaire » peut vraiment prospérer.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler

Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)