La prévision de référence de Goldman Sachs de 7,6 billions de dollars de dépenses en capital liées à l’intelligence artificielle (IA) dépend au final de la durée pendant laquelle le silicium spécifique à l’IA reste utile. Les réseaux décentralisés promettent de fortes efficacités de coûts, mais continuent de se heurter à des problèmes de latence, et des experts estiment que leur viabilité à long terme reposera sur la priorité donnée à la vérifiabilité plutôt qu’à la performance brute.
Un récent rapport de Goldman Sachs fait évoluer le débat, passant de la question de savoir si la demande en intelligence artificielle (IA) existe à celle de quels facteurs côté offre détermineront le coût réel du déploiement. Le rapport projette 7,6 billions de dollars de dépenses d’investissement en IA comme scénario de référence, mais souligne que ce chiffre est très sensible aux « variables d’amplitude », notamment la durée de vie utile du silicium de l’IA.
Cette longévité est considérée comme le facteur le plus critique, car l’innovation rapide pourrait rendre obsolètes, en trois ans, des puces standard — qui durent généralement de 4 à 6 ans —, faisant exploser les coûts. À l’inverse, un « modèle en étages » où des puces plus anciennes sont réutilisées pour des tâches plus simples, comme l’inférence, pourrait stabiliser les coûts.
La complexité des centres de données et l’élasticité de la demande en calcul sont d’autres variables susceptibles d’influencer la quantité de capital dépensée pour l’infrastructure IA au cours des cinq prochaines années. Les pénuries de capacité du réseau électrique, de main-d’œuvre spécialisée et de matériel électrique sont aussi considérées comme des facteurs qui allongent le calendrier de déploiement.
En attendant, un rapport distinct présente cette dépense d’infrastructure vertigineuse comme la pierre angulaire d’une « économie de la machine » en émergence. Dans ce paradigme, les agents d’IA deviennent les acteurs économiques principaux, réalisant des transactions à haute fréquence et gérant l’allocation des ressources de manière autonome. Les auteurs du rapport estiment que les systèmes financiers historiques, caractérisés par des cycles de règlement lents et des cadres rigides de connaissance du client (KYC), sont fondamentalement mal adaptés à la vélocité du commerce piloté par des agents.
Par conséquent, le rapport positionne la crypto et les protocoles décentralisés comme les « rails économiques » essentiels, sans autorisation, nécessaires pour faciliter cette transition. Toutefois, les sceptiques restent prudents, en se demandant si les réseaux d’infrastructure physique décentralisée (DePIN) peuvent réellement atténuer les besoins en capital croissants de l’IA.
Vadim Taszycki, responsable de la croissance chez StealthEX, note que si les réseaux décentralisés peuvent offrir des économies de coûts significatives, ils sont limités par la réalité physique. Alors qu’un fournisseur décentralisé comme Akash pourrait louer un GPU H100 à 1,48 dollars de l’heure contre 12,30 dollars sur Amazon Web Services, l’arbitrage se fait sur la vitesse.
« Les grands fournisseurs cloud peuvent faire [un travail rapide] parce que leurs GPU sont côte à côte dans un même bâtiment, reliés par des câbles spéciaux qui déplacent les données en microsecondes », a déclaré Taszycki. Il a expliqué que les réseaux décentralisés, qui assemblent des GPU dans différents pays via l’internet public, ajoutent des millisecondes de retard. Cette latence rend l’orchestration décentralisée compétitive pour les tâches par lots et l’ajustement fin, mais inadaptée au service de chatbots à grande échelle en temps réel, où l’expérience utilisateur dépend de réponses quasi instantanées.
Leo Fan, fondateur de Cysic, a fait écho à ces constats, affirmant que l’inférence décentralisée ne convient pas aux charges de travail à faible latence. Fan a toutefois soutenu que la latence est un mauvais critère pour comparer des plateformes décentralisées et des hyperscalers comme AWS.
« Le problème difficile n’est pas le calcul distribué, mais la découverte, la planification et l’attestation. La cale ne se trouve pas dans le prix par token ; elle se trouve dans la vérifiabilité », a déclaré Fan. Il a noté que les environnements d’exécution sécurisés (TEE) et les attestations à preuve à connaissance nulle (ZK) permettent aux réseaux décentralisés de rivaliser dans des secteurs où la confiance et la vérification comptent davantage que la « latence de queue ».
Au-delà du calcul, l’attention se déplace vers la manière dont ces projets très gourmands en capitaux sont financés. Si le crédit privé traditionnel dispose de ressources abondantes, il passe souvent à côté des opérations plus petites ou non standard. Le crédit onchain offre des avantages distincts, comme permettre aux investisseurs de détail de participer aux revenus des centres de données qui étaient auparavant réservés aux partenaires limités institutionnels. En outre, des plateformes comme Maple et Centrifuge peuvent syndiquer des prêts dans une fourchette de 5 millions à 50 millions de dollars — un segment souvent ignoré par des acteurs comme Apollo en raison des coûts élevés de souscription par rapport aux frais.
Enfin, le crédit onchain permet des modèles novateurs de « paiement à l’inférence », où les revenus fluctuent avec l’usage des GPU. Ces modèles s’intègrent plus naturellement à des structures tokenisées de partage de revenus que des baux traditionnels rigides sur 20 ans.
Malgré ce potentiel, des experts identifient quatre « portes » qui restent fermées à l’adoption institutionnelle : l’exigibilité juridique dans les tribunaux de faillite, l’absence d’infrastructure d’oracles inviolables pour servir des covenants, l’incertitude réglementaire pour des tranches d’un milliard de dollars, et des produits de fiscalité et de comptabilité non standardisés.
Le consensus suggère un calendrier réaliste de 12 à 24 mois pour que des opérations syndiquées de taille moyenne prennent réellement de l’ampleur onchain, avec une dette mezzanine majoritairement onchain probablement à 3 à 5 ans. Les premières percées viendront probablement d’acteurs de niveau 2 plutôt que de leaders du secteur comme Coreweave.
Related News
Les perspectives de revenus de Cisco dépassent les attentes, sa transition réussie vers le secteur de l’IA propulse le cours de l’action CSCO à un niveau record
Les communautés de DAO expérimentent des solutions de gouvernance décentralisée
Le PDG d'Alibaba : Presque aucune carte GPU n'est inactive dans les serveurs
Où se situe la prochaine vague d’infrastructures d’IA ? Le rapport de Citrini révèle que le SiC, le GaN et les infrastructures électriques deviennent de nouvelles pistes d’investissement