Lorsqu’on discute de l’investissement dans le matériel de stockage et des seuils de staking, une question est rarement évoquée : combien d’électricité est réellement consommée par la preuve de stockage continue.
Prenons Walrus : sa conception de la preuve est bien plus simple que celle de certains réseaux de stockage, mais cela soulève une autre problématique. Les défis aléatoires à haute fréquence et la nécessité de réponses rapides signifient que les nœuds doivent toujours disposer de ressources de calcul prêtes. Ce n’est pas une simple planification de serveurs de stockage traditionnels ; en réalité, les nœuds jouent le rôle d’une « machine de preuve légère ».
Comment cela consomme-t-il précisément ? La vérification des fragments de codage effaçable, la réponse aux défis aléatoires du réseau nécessitent une récupération rapide des fragments de données, ce qui sollicite constamment le CPU. Dans le contexte du stockage de données pour l’entraînement AI, si les données sont également cryptées ou encodées, la complexité de calcul pour chaque génération de preuve augmente d’un ordre.
Plus important encore, cette consommation n’est pas une tâche ponctuelle, mais un coût continu qui croît linéairement avec la quantité de données stockées. Les opérateurs de nœuds doivent répartir ces coûts dans leur tarification, sinon, il sera impossible de faire face aux coûts d’électricité et à l’amortissement du matériel.
Où se situe le risque actuel ? Si le réseau ne tarifie et ne distribue les récompenses qu’en fonction de la capacité de stockage et de la bande passante, en ignorant totalement le coût du calcul de la preuve, les opérateurs finiront par utiliser des unités de calcul peu performantes pour réduire leurs coûts. Résultat : la vitesse de réponse et la fiabilité du réseau en pâtiront, créant un effet de faiblesse évident.
À long terme, il y a aussi un problème plus subtil. Pour optimiser l’efficacité du calcul de la preuve, les nœuds pourraient progressivement choisir une configuration matérielle unique, avec des CPU ou des cartes d’accélération identiques. Cela améliore l’efficacité globale du réseau, mais au prix d’une réduction de la diversité matérielle, ce qui affaiblit la décentralisation.
Cela signifie que la conception du protocole doit être particulièrement prudente, afin de trouver un véritable équilibre entre sécurité cryptographique et accessibilité du matériel standard. Il ne faut pas que la recherche d’une conception mathématique parfaite pousse l’exploitation des nœuds vers une course à la spécialisation et à la centralisation. Ce n’est pas seulement une question technique, mais une question philosophique sur la gouvernance du réseau dans son ensemble.
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
13 J'aime
Récompense
13
6
Reposter
Partager
Commentaire
0/400
CodeAuditQueen
· Il y a 4h
Encore cette vieille rengaine, une conception d'algorithme élégante mais un trou noir de coûts que personne ne comptabilise.
Voir l'originalRépondre0
ProofOfNothing
· Il y a 16h
Encore cette stratégie, en gros c'est un trou noir de consommation d'électricité pour la preuve de stockage que personne ne veut comptabiliser
Le vrai problème, c'est que l'homogénéisation du matériel est une catastrophe, plus on optimise, plus c'est centralisé, on se tire une balle dans le pied en déplaçant la pierre
Voir l'originalRépondre0
governance_ghost
· Il y a 16h
Putain, enfin quelqu'un parle de ça. Tout le monde calcule le matériel et le staking, personne ne se soucie vraiment de comment sont calculées les factures d'électricité
Voir l'originalRépondre0
AirdropHunter
· Il y a 16h
Encore un trou noir de coûts ignoré, la facture d'électricité n'est vraiment pas bien calculée
La preuve de stockage consomme du CPU tous les jours, plus la quantité de données est grande, plus ça consomme, les opérateurs finiront tôt ou tard par réduire les coûts ou faire faillite
La standardisation du matériel est douloureuse, pour plus d'efficacité, on va vers la centralisation, ce qui revient à se creuser sa propre tombe
Il faut bien réfléchir à ce sujet du protocole, sinon ce sera le jeu des mineurs professionnels, les petits investisseurs ne peuvent pas jouer
Voir l'originalRépondre0
NFTRegretter
· Il y a 16h
Les gars, personne ne calcule clairement le coût de l'électricité, tôt ou tard cela mènera à un gros problème...
---
Encore une course aux armements matériels, une centralisation sous couvert de décentralisation, opération classique...
---
Donc, au final, c'est une question de philosophie de la conception du protocole, pas une question technique, j'ai compris.
---
La logique de Walrus expose effectivement que, pour un réseau de stockage, compter uniquement le coût de stockage ne suffit pas.
---
Une fois que les opérateurs de nœuds commencent à faire des économies de bout de chandelle, tout le réseau devient un tigre en papier, ce point de risque est évident.
---
L'homogénéisation du matériel augmente l'efficacité, mais au prix de l'effondrement de la décentralisation, cette transaction en vaut-elle la peine ?
Voir l'originalRépondre0
QuorumVoter
· Il y a 16h
Eh bien, c'est ça le vrai point, tout le monde calcule le coût matériel, mais personne ne calcule l'électricité.
Si le coût de l'électricité n'est pas réparti équitablement, cela conduira directement à la faillite des opérateurs, alors qui courra vers Walrus à ce moment-là ?
La conception du protocole peut facilement dériver vers une centralisation si l'on n'y fait pas attention, c'est vraiment ironique.
Lorsqu’on discute de l’investissement dans le matériel de stockage et des seuils de staking, une question est rarement évoquée : combien d’électricité est réellement consommée par la preuve de stockage continue.
Prenons Walrus : sa conception de la preuve est bien plus simple que celle de certains réseaux de stockage, mais cela soulève une autre problématique. Les défis aléatoires à haute fréquence et la nécessité de réponses rapides signifient que les nœuds doivent toujours disposer de ressources de calcul prêtes. Ce n’est pas une simple planification de serveurs de stockage traditionnels ; en réalité, les nœuds jouent le rôle d’une « machine de preuve légère ».
Comment cela consomme-t-il précisément ? La vérification des fragments de codage effaçable, la réponse aux défis aléatoires du réseau nécessitent une récupération rapide des fragments de données, ce qui sollicite constamment le CPU. Dans le contexte du stockage de données pour l’entraînement AI, si les données sont également cryptées ou encodées, la complexité de calcul pour chaque génération de preuve augmente d’un ordre.
Plus important encore, cette consommation n’est pas une tâche ponctuelle, mais un coût continu qui croît linéairement avec la quantité de données stockées. Les opérateurs de nœuds doivent répartir ces coûts dans leur tarification, sinon, il sera impossible de faire face aux coûts d’électricité et à l’amortissement du matériel.
Où se situe le risque actuel ? Si le réseau ne tarifie et ne distribue les récompenses qu’en fonction de la capacité de stockage et de la bande passante, en ignorant totalement le coût du calcul de la preuve, les opérateurs finiront par utiliser des unités de calcul peu performantes pour réduire leurs coûts. Résultat : la vitesse de réponse et la fiabilité du réseau en pâtiront, créant un effet de faiblesse évident.
À long terme, il y a aussi un problème plus subtil. Pour optimiser l’efficacité du calcul de la preuve, les nœuds pourraient progressivement choisir une configuration matérielle unique, avec des CPU ou des cartes d’accélération identiques. Cela améliore l’efficacité globale du réseau, mais au prix d’une réduction de la diversité matérielle, ce qui affaiblit la décentralisation.
Cela signifie que la conception du protocole doit être particulièrement prudente, afin de trouver un véritable équilibre entre sécurité cryptographique et accessibilité du matériel standard. Il ne faut pas que la recherche d’une conception mathématique parfaite pousse l’exploitation des nœuds vers une course à la spécialisation et à la centralisation. Ce n’est pas seulement une question technique, mais une question philosophique sur la gouvernance du réseau dans son ensemble.