Enquanto o mercado discute os investimentos em hardware de armazenamento e os limites de staking, há uma questão que raramente é mencionada: quanto energia é realmente consumida ao executar continuamente a prova de armazenamento.
Tomando o Walrus como exemplo, seu design de prova é muito mais simples do que alguns outros redes de armazenamento, mas uma nova perspectiva revela outros problemas. As exigências de desafios aleatórios de alta frequência e respostas rápidas significam que os nós precisam estar sempre prontos com recursos de cálculo. Isso não é uma configuração tradicional de servidores de armazenamento; na verdade, os nós atuam como uma espécie de «máquina de prova leve».
Como exatamente isso consome energia? A validação de fragmentos de codificação de apagamento, a resposta rápida a desafios aleatórios da rede e a recuperação rápida de fragmentos de dados tudo isso consome continuamente CPU. No cenário de armazenamento de dados para treinamento de IA, se os dados forem criptografados ou codificados, a complexidade computacional de cada geração de prova aumenta ainda mais.
Mais importante, esse consumo não é uma tarefa pontual, mas um custo contínuo que cresce linearmente com a quantidade de dados armazenados. Os operadores de nós precisam distribuir esse custo de energia e de depreciação de hardware na sua precificação, caso contrário, as contas não fecham.
Qual é o risco atual? Se a rede for precificada e recompensada apenas com base na capacidade de armazenamento e largura de banda, ignorando completamente o custo do cálculo de prova, os operadores eventualmente usarão unidades de cálculo de desempenho insuficiente para economizar custos. O resultado será uma redução na velocidade de resposta e na confiabilidade da rede, criando um efeito de ponto fraco evidente.
A longo prazo, há uma questão ainda mais sutil. Para otimizar a eficiência do cálculo de provas, os nós podem começar a usar configurações de hardware idênticas, com CPUs ou aceleradores do mesmo modelo. Isso realmente aumenta a eficiência geral da rede, mas o custo é a diminuição da diversidade de hardware, enfraquecendo a descentralização.
Isso significa que o design do protocolo precisa ser especialmente cuidadoso, equilibrando segurança criptográfica e acessibilidade de hardware comum. Não se deve buscar uma perfeição matemática que leve a uma operação de nós cada vez mais especializada e centralizada. Essa questão não é apenas técnica, mas uma questão filosófica sobre como a rede deve ser governada.
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
13 gostos
Recompensa
13
6
Republicar
Partilhar
Comentar
0/400
CodeAuditQueen
· 01-17 07:46
Mais uma vez, o mesmo velho truque, o design do algoritmo é bonito, mas o buraco negro de custos ninguém contabiliza.
Ver originalResponder0
ProofOfNothing
· 01-16 19:47
Mais uma vez essa tática, na verdade é um buraco negro de consumo de energia para prova de armazenamento que ninguém quer contabilizar
O resultado é que a homogeneização do hardware é realmente impressionante, quanto mais otimizado, mais centralizado, levantar uma pedra para acertar o próprio pé
Ver originalResponder0
governance_ghost
· 01-16 19:47
Caramba, finalmente alguém falou sobre isso. Todo mundo está calculando hardware e staking, mas ninguém se preocupa com como calcular a conta de eletricidade.
Ver originalResponder0
AirdropHunter
· 01-16 19:44
Mais um buraco negro de custos ignorado, a conta da eletricidade realmente ninguém consegue calcular claramente
A prova de armazenamento consome CPU todos os dias, quanto maior o volume de dados, mais energia gasta, os operadores cedo ou tarde terão que cortar custos ou fechar
A homogeneização do hardware é dolorosa, para ganhar eficiência, ao invés de descentralizar, estão indo para a centralização, isso não é cavar a própria sepultura
Sobre o protocolo, é preciso pensar bem, senão será um jogo exclusivo para mineradores profissionais, os pequenos investidores simplesmente não conseguem participar
Ver originalResponder0
NFTRegretter
· 01-16 19:41
Cara, ninguém consegue fazer as contas do custo de eletricidade claramente, cedo ou tarde vai dar problema...
---
Mais uma corrida armamentista de hardware, centralização sob o pretexto de descentralização, operação clássica...
---
Portanto, no final, é uma questão filosófica de design de protocolo, não uma questão técnica, entendi.
---
A lógica do Walrus realmente expôs que, apenas calcular o custo de armazenamento na rede de armazenamento não é suficiente.
---
Assim que os operadores de nós começarem a economizar, toda a rede se torna um tigre de papel, esse risco é evidente.
---
A homogeneização de hardware traz eficiência, mas o preço é a colapsação da descentralização, essa troca vale a pena?
Ver originalResponder0
QuorumVoter
· 01-16 19:33
Pois é, essa é a questão principal, todos estão calculando o custo de hardware, mas ninguém considera a conta de eletricidade.
Se os custos de energia não forem bem distribuídos, os provedores vão à falência, e aí quem vai fugir para o Walrus?
O design do protocolo, se não for bem cuidado, tende a centralizar, o que é realmente bastante irônico.
Enquanto o mercado discute os investimentos em hardware de armazenamento e os limites de staking, há uma questão que raramente é mencionada: quanto energia é realmente consumida ao executar continuamente a prova de armazenamento.
Tomando o Walrus como exemplo, seu design de prova é muito mais simples do que alguns outros redes de armazenamento, mas uma nova perspectiva revela outros problemas. As exigências de desafios aleatórios de alta frequência e respostas rápidas significam que os nós precisam estar sempre prontos com recursos de cálculo. Isso não é uma configuração tradicional de servidores de armazenamento; na verdade, os nós atuam como uma espécie de «máquina de prova leve».
Como exatamente isso consome energia? A validação de fragmentos de codificação de apagamento, a resposta rápida a desafios aleatórios da rede e a recuperação rápida de fragmentos de dados tudo isso consome continuamente CPU. No cenário de armazenamento de dados para treinamento de IA, se os dados forem criptografados ou codificados, a complexidade computacional de cada geração de prova aumenta ainda mais.
Mais importante, esse consumo não é uma tarefa pontual, mas um custo contínuo que cresce linearmente com a quantidade de dados armazenados. Os operadores de nós precisam distribuir esse custo de energia e de depreciação de hardware na sua precificação, caso contrário, as contas não fecham.
Qual é o risco atual? Se a rede for precificada e recompensada apenas com base na capacidade de armazenamento e largura de banda, ignorando completamente o custo do cálculo de prova, os operadores eventualmente usarão unidades de cálculo de desempenho insuficiente para economizar custos. O resultado será uma redução na velocidade de resposta e na confiabilidade da rede, criando um efeito de ponto fraco evidente.
A longo prazo, há uma questão ainda mais sutil. Para otimizar a eficiência do cálculo de provas, os nós podem começar a usar configurações de hardware idênticas, com CPUs ou aceleradores do mesmo modelo. Isso realmente aumenta a eficiência geral da rede, mas o custo é a diminuição da diversidade de hardware, enfraquecendo a descentralização.
Isso significa que o design do protocolo precisa ser especialmente cuidadoso, equilibrando segurança criptográfica e acessibilidade de hardware comum. Não se deve buscar uma perfeição matemática que leve a uma operação de nós cada vez mais especializada e centralizada. Essa questão não é apenas técnica, mas uma questão filosófica sobre como a rede deve ser governada.