Web3应用面临 um problema difícil de evitar: os dados são demasiado caros. Não só o custo de armazenamento é exorbitante, como a velocidade de recuperação também não acompanha. O resultado é que todos contornam este problema — deixam os dados importantes num servidor centralizado, deixando na blockchain apenas um valor hash. Assim, toda a ideia de descentralização fica comprometida.
O protocolo Walrus da Mysten Labs pretende resolver esta contradição na raiz. Ele posiciona-se como uma rede de armazenamento descentralizado especialmente desenhada para objetos binários de grande dimensão. Pode parecer pouco impressionante, mas a abordagem técnica por trás é completamente diferente.
**As vulnerabilidades dos métodos tradicionais são evidentes.** Como é que a maioria dos protocolos de armazenamento funciona? De forma simples e direta — duplicando os dados várias vezes. Uma cópia de dados é replicada 10, 20 vezes, para garantir que não se perca. Mas qual é o custo? Explosão de largura de banda, desperdício de espaço, e uma conta económica que não fecha.
O Walrus utiliza uma técnica chamada código de correção de erros Red Stuff. A ideia central é usar códigos de fonte para dividir o arquivo original em inúmeras pequenas partículas (chamadas Slivers). Estas partículas não são simples cópias, mas sim entrelaçadas através de algoritmos matemáticos numa matriz lógica. O mais impressionante é que — mesmo que dois terços dos nós da rede falhem ao mesmo tempo, as partículas restantes podem ser usadas para reconstruir os dados completos através de cálculos matriciais.
Este design oferece uma vantagem de eficiência que se nota imediatamente. Outros protocolos costumam ter redundâncias de dezenas de vezes, enquanto o Walrus consegue atingir a mesma ou até maior fiabilidade com apenas 4 a 5 vezes de overhead. O custo cai drasticamente. Finalmente, os desenvolvedores deixam de se preocupar tanto com os custos de armazenamento.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
18 Curtidas
Recompensa
18
9
Repostar
Compartilhar
Comentário
0/400
NotSatoshi
· 01-19 06:58
Agora é mesmo para mudar as regras do jogo, cortar os custos de armazenamento pela metade ou mais? A jogada do Walrus com código de correção de erros é realmente agressiva
---
Mais uma solução "revolucionária", se durar mais de dois anos é derrota minha
---
O código de fonte de água já existia há muito tempo, só agora é que estão a usar? Web3 está sempre a atrasar-se
---
4 a 5 vezes de redundância vs dezenas de vezes, os números parecem impressionantes mas os utilizadores vão aceitar?
---
Os desenvolvedores já não têm dores de cabeça, os mineiros vão queixar-se de rendimentos baixos, o ciclo voltou a começar
---
Espera aí, 2/3 dos nós caírem ainda assim é possível recuperar? Essa configuração de segurança parece um pouco ousada
---
Finalmente alguém leva a sério o custo de dados, antes estavam a fingir que não viam
---
Mysten é capaz de criar algo diferente, essa é a verdadeira inovação
---
Código vermelho? Código de correção de erros? Por mais sofisticado que seja, no final das contas, tudo se resume à taxa de adoção real
Ver originalResponder0
RooftopReserver
· 01-17 09:17
Finalmente alguém enfrentou de frente essa questão, a rotina de copiar a mesma jogada dez ou vinte vezes já é de doer
A ideia de código de exclusão é realmente genial, mas só quero saber — os nós também vão ficar como o gato de Schrödinger, mortos e vivos ao mesmo tempo
Mais um salvador da tecnologia, mais uma queda brutal de custos, por que será que eu não acredito nisso?
A tecnologia de blocos vermelhos parece poderosa, mas o que realmente importa é se consegue sustentar todo o ecossistema, né?
Parece uma agulha para dar uma sobrevida à descentralização, mas e aí, o que acontece depois de aplicar?
Redundância de 4 a 5 vezes parece economizar, mas quem diabos realmente consegue colocar dados com confiança de 100%?
Tudo bem, talvez desta vez não seja só papo furado, mas antes de tudo, vou subir no telhado e garantir meu lugar, depois a gente vê
Ver originalResponder0
TokenomicsTinfoilHat
· 01-17 07:03
Finalmente alguém ousou abordar este ponto sensível, o custo de armazenamento já devia ter sido eliminado há muito tempo
A solução de codificação de correção de erros do Walrus realmente tem valor, 4 a 5 vezes de redundância eliminam dezenas de vezes de desperdício, isso é que é matemática
A frase de que a descentralização foi desfeita atinge o ponto crucial, a maioria dos projetos na cadeia ainda não são senão disfarces de bancos de dados centralizados
A ideia do código de fonte é excelente, mas o mais importante é se o modelo econômico consegue funcionar, para não se tornar apenas uma obra-prima acadêmica
Ainda que 2/3 dos nós falhem, a recuperação é possível, essa estabilidade realmente me entusiasma
Espere, isso tem alguma diferença essencial em relação às soluções anteriores de armazenamento de conhecimento zero? Ou será mais uma coisa supervalorizada
Economizar dinheiro para os desenvolvedores é ótimo, mas quero saber mais sobre como os mecanismos de incentivo dos validadores estão configurados, para não acabar sendo mais uma tática de cortar os lucros dos investidores
Ver originalResponder0
RugpullTherapist
· 01-17 07:03
Ouça, a verdadeira descentralização morreu devido ao custo, e agora finalmente há alguém que quer resolvê-lo de forma séria
A abordagem de código de correção de erros do Walrus é realmente excelente, com uma redundância de 4 a 5 vezes, consegue fazer o que outros fazem com 10 vezes mais recursos, essa é a arquitetura que deveria existir
Antes, aqueles projetos jogavam os dados em servidores centralizados e ainda tinham a audácia de falar de web3, mas agora parece mesmo uma piada
Ver originalResponder0
GasGuzzler
· 01-17 07:01
walrus esta implementação de código de correção de erros é realmente incrível, finalmente alguém conseguiu reduzir os custos de armazenamento, 4x de redundância eliminam dezenas de vezes, isso é que se chama avanço técnico
Falando das várias projetos anteriores que exageraram, os dados ainda precisam voltar para servidores centralizados, que risada, a casca de descentralização é só uma fachada
Não entendi muito bem a operação de matriz de código de fonte aberta, mas conseguir recuperar 2/3 dos nós em caso de falha, essa estabilidade é realmente de topo
Os desenvolvedores finalmente não precisam mais competir pelo uso da aws, há alguma esperança na ecologia
Na cadeia realmente é preciso resolver o problema dos dados, senão o web3 será sempre uma meia medida
Ver originalResponder0
TokenToaster
· 01-17 06:59
Eh, finalmente alguém explicou claramente esse ponto doloroso, o armazenamento caro a ponto de ser ridículo é realmente impressionante
A codificação de correção de erros é incrível, não há dúvida, mas não é de admirar que ninguém a tenha usado em larga escala antes... Agora, se o Walrus realmente conseguir reduzir os custos, os desenvolvedores provavelmente vão comemorar em massa
Espera aí, essa tecnologia Red Stuff é confiável? Pode recuperar mesmo com dois terços dos nós caídos? Isso é um pouco extremo
Finalmente há um projeto que não depende de empilhar servidores para resolver problemas, isso sim é inovação de verdade
Mas, para ser honesto, 4 a 5 vezes de redundância versus dezenas de vezes, essa diferença, embora grande, ainda exige que os usuários paguem... Quanto mais barato? Essa é a questão chave
Ver originalResponder0
LiquidatorFlash
· 01-17 06:56
4 a 5 vezes de redundância vs dezenas de vezes, a diferença numérica é tão grande... Mas o mais importante é qual o limite de estabilidade de desempenho que os nós podem garantir, essa hipótese de dois terços de falhas realmente consegue se sustentar em oscilações reais da rede?
Ver originalResponder0
YieldHunter
· 01-17 06:51
honestly walrus sounds good in theory but let me see the actual tvl numbers before i get excited... data redundancy at 4-5x instead of 20x+ is nice on paper, does the math actually hold up when nodes start failing irl tho
Web3应用面临 um problema difícil de evitar: os dados são demasiado caros. Não só o custo de armazenamento é exorbitante, como a velocidade de recuperação também não acompanha. O resultado é que todos contornam este problema — deixam os dados importantes num servidor centralizado, deixando na blockchain apenas um valor hash. Assim, toda a ideia de descentralização fica comprometida.
O protocolo Walrus da Mysten Labs pretende resolver esta contradição na raiz. Ele posiciona-se como uma rede de armazenamento descentralizado especialmente desenhada para objetos binários de grande dimensão. Pode parecer pouco impressionante, mas a abordagem técnica por trás é completamente diferente.
**As vulnerabilidades dos métodos tradicionais são evidentes.** Como é que a maioria dos protocolos de armazenamento funciona? De forma simples e direta — duplicando os dados várias vezes. Uma cópia de dados é replicada 10, 20 vezes, para garantir que não se perca. Mas qual é o custo? Explosão de largura de banda, desperdício de espaço, e uma conta económica que não fecha.
O Walrus utiliza uma técnica chamada código de correção de erros Red Stuff. A ideia central é usar códigos de fonte para dividir o arquivo original em inúmeras pequenas partículas (chamadas Slivers). Estas partículas não são simples cópias, mas sim entrelaçadas através de algoritmos matemáticos numa matriz lógica. O mais impressionante é que — mesmo que dois terços dos nós da rede falhem ao mesmo tempo, as partículas restantes podem ser usadas para reconstruir os dados completos através de cálculos matriciais.
Este design oferece uma vantagem de eficiência que se nota imediatamente. Outros protocolos costumam ter redundâncias de dezenas de vezes, enquanto o Walrus consegue atingir a mesma ou até maior fiabilidade com apenas 4 a 5 vezes de overhead. O custo cai drasticamente. Finalmente, os desenvolvedores deixam de se preocupar tanto com os custos de armazenamento.