Rédigé par : imToken
Le terme « dilemme des trois » a probablement déjà fait entendre vos oreilles, n’est-ce pas ?
Au cours de la première décennie de la naissance d’Ethereum, le « dilemme des trois » était comme une loi physique suspendue au-dessus de chaque développeur — vous pouvez en choisir deux parmi la décentralisation, la sécurité et la scalabilité, mais il est impossible d’en avoir les trois en même temps. Cependant, en regardant en arrière depuis le début de 2026, nous constatons qu’il semble progressivement devenir une « barrière de conception » que la technologie peut dépasser par évolution, comme l’a souligné la perspective disruptive de Vitalik Buterin le 8 janvier :
Plutôt que de réduire la latence, augmenter la bande passante est plus sûr et plus fiable. Grâce à PeerDAS et ZKP, la scalabilité d’Ethereum peut être améliorée de plusieurs milliers de conflits, sans entrer en contradiction avec la décentralisation.
Alors que le « dilemme des trois » autrefois considéré comme infranchissable, peut-il aujourd’hui, en 2026, disparaître avec la maturité de PeerDAS, des technologies ZK et de l’abstraction des comptes ?
1. Pourquoi le « dilemme des trois » n’a-t-il pas été résolu à long terme ?
Il faut d’abord revenir sur le concept de « dilemme des trois » proposé par Vitalik Buterin, qui décrivait la difficulté pour une blockchain publique de concilier sécurité, scalabilité et décentralisation :
Le problème est que, dans l’architecture traditionnelle, ces trois aspects se limitent mutuellement. Par exemple, augmenter le débit implique souvent d’augmenter le seuil matériel ou d’introduire une coordination centralisée ; réduire la charge des nœuds peut affaiblir les hypothèses de sécurité ; insister sur une décentralisation extrême peut sacrifier la performance et l’expérience.
On peut dire que, au cours des 5 à 10 dernières années, différentes blockchains ont proposé des réponses variées : d’EOS à Polkadot, Cosmos, puis Solana, Sui, Aptos, etc. Certaines ont choisi de sacrifier la décentralisation pour la performance, d’autres ont amélioré l’efficacité via des nœuds autorisés ou des mécanismes de comité, ou encore privilégient la vérification et la validation libres pour améliorer la performance.
Mais le point commun, c’est que presque toutes les solutions d’extension de capacité ne peuvent satisfaire que deux de ces trois aspects, sacrifiant inévitablement le troisième.
Autrement dit, presque tous les schémas se livrent à une lutte sans fin sous la logique de « blockchain monolithique » : si vous voulez aller vite, il faut des nœuds puissants ; si vous voulez beaucoup de nœuds, il faut accepter une exécution plus lente, ce qui semble être une impasse.
Si l’on met momentanément de côté le débat sur les mérites des architectures monolithiques ou modulaires, et qu’on examine sérieusement la transition d’Ethereum en 2020, passant d’une « chaîne monolithique » à une architecture multi-couches centrée sur le Rollup, ainsi que la maturation récente des technologies ZK (preuves à divulgation zéro), on constate que :
La logique sous-jacente du « dilemme des trois » a été progressivement reconstruite au cours des 5 dernières années, dans le cadre de la modularisation d’Ethereum.
Objectivement, Ethereum a, par une série de pratiques techniques, désolidarisé progressivement ses limitations initiales. Sur le plan technique, ce problème n’est plus une simple discussion philosophique.
2. La solution technique par « diviser pour mieux régner »
Nous allons maintenant décomposer ces détails techniques, en montrant comment, entre 2020 et 2025, Ethereum a parallèlement avancé sur plusieurs axes technologiques pour désamorcer cette contrainte triangulaire.
D’abord, par la déconnexion entre disponibilité des données et scalabilité via PeerDAS, libérant ainsi la limite naturelle de la capacité.
Comme on le sait, dans le dilemme des trois, la disponibilité des données est souvent la première barrière à la scalabilité, car les blockchains traditionnelles exigent que chaque nœud complet télécharge et vérifie toutes les données, ce qui limite la capacité d’expansion tout en garantissant la sécurité. C’est pour cela que la solution DA de Celestia, qui adopte une approche « déviante », a connu une explosion récente.
Ethereum ne cherche pas à rendre les nœuds plus puissants, mais à changer leur façon de vérifier les données, notamment avec PeerDAS (Peer Data Availability Sampling) :
Il ne demande plus à chaque nœud de télécharger toutes les données du bloc, mais de vérifier leur disponibilité par échantillonnage probabiliste — les données du bloc étant découpées et encodées, les nœuds ne doivent échantillonner qu’une partie, et si des données sont dissimulées, la probabilité d’échec de l’échantillonnage s’amplifie rapidement. Cela permet d’augmenter considérablement le débit des données, tout en permettant à des nœuds ordinaires de participer à la vérification. Cela ne signifie-t-il pas que cette approche optimise la décentralisation tout en dépassant la limite de scalabilité ?
Vitalik insiste particulièrement sur le fait que PeerDAS n’est plus une simple idée sur la feuille de route, mais un composant déployé dans le système, ce qui marque une étape concrète dans la démarche d’Ethereum pour concilier scalabilité et décentralisation.
Ensuite, le zkEVM, qui vise à utiliser la preuve à divulgation zéro pour la vérification, tente de résoudre le problème de « chaque nœud doit-il exécuter toutes les calculs ? »
L’idée centrale est que le réseau principal d’Ethereum pourra générer et vérifier des preuves ZK. En d’autres termes, après l’exécution d’un bloc, on peut produire une preuve mathématique vérifiable, permettant à d’autres nœuds de confirmer la résultat sans tout recalculer. Plus concrètement, les avantages du zkEVM sont :
Récemment, la Fondation Ethereum (EF) a officiellement publié la norme de preuve instantanée zkEVM pour la couche 1, marquant la première intégration officielle de la route ZK dans la planification technique du réseau principal. Dans l’année à venir, Ethereum passera progressivement à un environnement d’exécution supportant la vérification zkEVM, réalisant une transition structurelle de « réexécution » vers « vérification par preuve ».
Selon Vitalik, le zkEVM a déjà atteint un stade où ses performances et ses fonctionnalités sont utilisables en production, mais le vrai défi réside dans la sécurité à long terme et la complexité de mise en œuvre. D’après la feuille de route publiée par EF, le délai pour la preuve de bloc est fixé à 10 secondes, la taille d’une preuve zk inférieure à 300 KB, avec un niveau de sécurité de 128 bits, sans configuration de confiance, et avec une planification pour que des appareils domestiques puissent participer à la génération de preuves, afin de réduire la barrière à la décentralisation.
Enfin, en plus de ces deux axes, il y a les développements prévus dans la feuille de route Ethereum jusqu’en 2030 (comme The Surge, The Verge, etc.), axés sur l’augmentation du débit, la reconstruction du modèle d’état, l’augmentation du plafond de Gas, et l’amélioration du moteur d’exécution.
Ce sont autant d’expérimentations et de parcours accumulés pour franchir la limite du triangle traditionnel. Cela ressemble à une voie principale à long terme, visant à atteindre un débit plus élevé, une division plus claire des rôles des Rollups, et une cadence plus stable pour l’exécution et la finalisation, afin de préparer la collaboration multi-chaînes et l’interopérabilité futures.
Ce qui est important, c’est que ces évolutions ne sont pas des mises à niveau isolées, mais conçues pour s’empiler et se renforcer mutuellement, illustrant l’« attitude d’ingénierie » d’Ethereum face au dilemme des trois : ce n’est pas une recherche de solution magique unique comme dans une blockchain monolithique, mais une réorganisation par couches pour redistribuer coûts et risques.
3. La vision 2030 : la forme finale d’Ethereum
Même ainsi, il faut garder la modération. Car la « décentralisation » n’est pas une métrique statique, mais le résultat d’une évolution à long terme.
Ethereum explore progressivement, par la pratique, les limites imposées par le dilemme des trois — avec l’évolution des méthodes de vérification (de la recomputation à l’échantillonnage), des structures de données (de l’état en expansion à l’état à échéance), et des modèles d’exécution (du monolithique au modulaire). La relation de compromis initiale se déplace, et nous approchons sans cesse de ce point où l’on peut tout vouloir, tout avoir, et tout faire.
Dans des discussions récentes, Vitalik a aussi esquissé un cadre temporel relativement clair :
En combinant ces mises à jour de la feuille de route, on peut anticiper trois caractéristiques clés d’Ethereum avant 2030, qui constituent la réponse ultime au dilemme des trois :
Fait intéressant, au moment où j’écris ces lignes, Vitalik a réaffirmé une norme de test importante — « le test de sortie » (The Walkaway Test), soulignant qu’Ethereum doit pouvoir fonctionner de manière autonome, même si tous les fournisseurs de services (Server Providers) disparaissent ou sont attaqués, et que les DApps continuent de fonctionner, avec la sécurité des actifs des utilisateurs intacte.
Cette déclaration ramène en réalité l’évaluation de cette « forme finale » à ce qui compte le plus pour Ethereum — la confiance dans le système en cas de pire scénario, et non la vitesse ou l’expérience.
En conclusion
Il faut toujours adopter une vision de développement pour analyser ces questions, surtout dans un secteur aussi dynamique que Web3/Crypto.
Je crois aussi qu’après plusieurs années, lorsque l’on se remémorera les débats passionnés sur le dilemme des trois entre 2020 et 2025, on pourra peut-être voir cela comme une discussion sur « comment faire en sorte que la voiture allie vitesse, sécurité et capacité de charge » avant l’invention de la voiture elle-même.
La réponse d’Ethereum ne consiste pas à faire un choix douloureux entre ces trois sommets, mais à construire, par PeerDAS, ZK et une ingénierie économique sophistiquée, une infrastructure numérique qui appartient à tous, extrêmement sûre, et capable de supporter l’ensemble des activités financières mondiales.
Objectivement, chaque pas dans cette direction nous rapproche de la fin de cette histoire du « dilemme des trois ».