Web3应用面临 um problema difícil de evitar: os dados são demasiado caros. Não só o custo de armazenamento é exorbitante, como a velocidade de recuperação também não acompanha. O resultado é que todos contornam este problema — deixam os dados importantes num servidor centralizado, deixando na blockchain apenas um valor hash. Assim, toda a ideia de descentralização fica comprometida.
O protocolo Walrus da Mysten Labs pretende resolver esta contradição na raiz. Ele posiciona-se como uma rede de armazenamento descentralizado especialmente desenhada para objetos binários de grande dimensão. Pode parecer pouco impressionante, mas a abordagem técnica por trás é completamente diferente.
**As vulnerabilidades dos métodos tradicionais são evidentes.** Como é que a maioria dos protocolos de armazenamento funciona? De forma simples e direta — duplicando os dados várias vezes. Uma cópia de dados é replicada 10, 20 vezes, para garantir que não se perca. Mas qual é o custo? Explosão de largura de banda, desperdício de espaço, e uma conta económica que não fecha.
O Walrus utiliza uma técnica chamada código de correção de erros Red Stuff. A ideia central é usar códigos de fonte para dividir o arquivo original em inúmeras pequenas partículas (chamadas Slivers). Estas partículas não são simples cópias, mas sim entrelaçadas através de algoritmos matemáticos numa matriz lógica. O mais impressionante é que — mesmo que dois terços dos nós da rede falhem ao mesmo tempo, as partículas restantes podem ser usadas para reconstruir os dados completos através de cálculos matriciais.
Este design oferece uma vantagem de eficiência que se nota imediatamente. Outros protocolos costumam ter redundâncias de dezenas de vezes, enquanto o Walrus consegue atingir a mesma ou até maior fiabilidade com apenas 4 a 5 vezes de overhead. O custo cai drasticamente. Finalmente, os desenvolvedores deixam de se preocupar tanto com os custos de armazenamento.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
13 gostos
Recompensa
13
8
Republicar
Partilhar
Comentar
0/400
RooftopReserver
· 1h atrás
Finalmente alguém enfrentou de frente essa questão, a rotina de copiar a mesma jogada dez ou vinte vezes já é de doer
A ideia de código de exclusão é realmente genial, mas só quero saber — os nós também vão ficar como o gato de Schrödinger, mortos e vivos ao mesmo tempo
Mais um salvador da tecnologia, mais uma queda brutal de custos, por que será que eu não acredito nisso?
A tecnologia de blocos vermelhos parece poderosa, mas o que realmente importa é se consegue sustentar todo o ecossistema, né?
Parece uma agulha para dar uma sobrevida à descentralização, mas e aí, o que acontece depois de aplicar?
Redundância de 4 a 5 vezes parece economizar, mas quem diabos realmente consegue colocar dados com confiança de 100%?
Tudo bem, talvez desta vez não seja só papo furado, mas antes de tudo, vou subir no telhado e garantir meu lugar, depois a gente vê
Ver originalResponder0
TokenomicsTinfoilHat
· 3h atrás
Finalmente alguém ousou abordar este ponto sensível, o custo de armazenamento já devia ter sido eliminado há muito tempo
A solução de codificação de correção de erros do Walrus realmente tem valor, 4 a 5 vezes de redundância eliminam dezenas de vezes de desperdício, isso é que é matemática
A frase de que a descentralização foi desfeita atinge o ponto crucial, a maioria dos projetos na cadeia ainda não são senão disfarces de bancos de dados centralizados
A ideia do código de fonte é excelente, mas o mais importante é se o modelo econômico consegue funcionar, para não se tornar apenas uma obra-prima acadêmica
Ainda que 2/3 dos nós falhem, a recuperação é possível, essa estabilidade realmente me entusiasma
Espere, isso tem alguma diferença essencial em relação às soluções anteriores de armazenamento de conhecimento zero? Ou será mais uma coisa supervalorizada
Economizar dinheiro para os desenvolvedores é ótimo, mas quero saber mais sobre como os mecanismos de incentivo dos validadores estão configurados, para não acabar sendo mais uma tática de cortar os lucros dos investidores
Ver originalResponder0
RugpullTherapist
· 3h atrás
Ouça, a verdadeira descentralização morreu devido ao custo, e agora finalmente há alguém que quer resolvê-lo de forma séria
A abordagem de código de correção de erros do Walrus é realmente excelente, com uma redundância de 4 a 5 vezes, consegue fazer o que outros fazem com 10 vezes mais recursos, essa é a arquitetura que deveria existir
Antes, aqueles projetos jogavam os dados em servidores centralizados e ainda tinham a audácia de falar de web3, mas agora parece mesmo uma piada
Ver originalResponder0
GasGuzzler
· 3h atrás
walrus esta implementação de código de correção de erros é realmente incrível, finalmente alguém conseguiu reduzir os custos de armazenamento, 4x de redundância eliminam dezenas de vezes, isso é que se chama avanço técnico
Falando das várias projetos anteriores que exageraram, os dados ainda precisam voltar para servidores centralizados, que risada, a casca de descentralização é só uma fachada
Não entendi muito bem a operação de matriz de código de fonte aberta, mas conseguir recuperar 2/3 dos nós em caso de falha, essa estabilidade é realmente de topo
Os desenvolvedores finalmente não precisam mais competir pelo uso da aws, há alguma esperança na ecologia
Na cadeia realmente é preciso resolver o problema dos dados, senão o web3 será sempre uma meia medida
Ver originalResponder0
TokenToaster
· 3h atrás
Eh, finalmente alguém explicou claramente esse ponto doloroso, o armazenamento caro a ponto de ser ridículo é realmente impressionante
A codificação de correção de erros é incrível, não há dúvida, mas não é de admirar que ninguém a tenha usado em larga escala antes... Agora, se o Walrus realmente conseguir reduzir os custos, os desenvolvedores provavelmente vão comemorar em massa
Espera aí, essa tecnologia Red Stuff é confiável? Pode recuperar mesmo com dois terços dos nós caídos? Isso é um pouco extremo
Finalmente há um projeto que não depende de empilhar servidores para resolver problemas, isso sim é inovação de verdade
Mas, para ser honesto, 4 a 5 vezes de redundância versus dezenas de vezes, essa diferença, embora grande, ainda exige que os usuários paguem... Quanto mais barato? Essa é a questão chave
Ver originalResponder0
LiquidatorFlash
· 3h atrás
4 a 5 vezes de redundância vs dezenas de vezes, a diferença numérica é tão grande... Mas o mais importante é qual o limite de estabilidade de desempenho que os nós podem garantir, essa hipótese de dois terços de falhas realmente consegue se sustentar em oscilações reais da rede?
Ver originalResponder0
YieldHunter
· 3h atrás
honestly walrus sounds good in theory but let me see the actual tvl numbers before i get excited... data redundancy at 4-5x instead of 20x+ is nice on paper, does the math actually hold up when nodes start failing irl tho
Web3应用面临 um problema difícil de evitar: os dados são demasiado caros. Não só o custo de armazenamento é exorbitante, como a velocidade de recuperação também não acompanha. O resultado é que todos contornam este problema — deixam os dados importantes num servidor centralizado, deixando na blockchain apenas um valor hash. Assim, toda a ideia de descentralização fica comprometida.
O protocolo Walrus da Mysten Labs pretende resolver esta contradição na raiz. Ele posiciona-se como uma rede de armazenamento descentralizado especialmente desenhada para objetos binários de grande dimensão. Pode parecer pouco impressionante, mas a abordagem técnica por trás é completamente diferente.
**As vulnerabilidades dos métodos tradicionais são evidentes.** Como é que a maioria dos protocolos de armazenamento funciona? De forma simples e direta — duplicando os dados várias vezes. Uma cópia de dados é replicada 10, 20 vezes, para garantir que não se perca. Mas qual é o custo? Explosão de largura de banda, desperdício de espaço, e uma conta económica que não fecha.
O Walrus utiliza uma técnica chamada código de correção de erros Red Stuff. A ideia central é usar códigos de fonte para dividir o arquivo original em inúmeras pequenas partículas (chamadas Slivers). Estas partículas não são simples cópias, mas sim entrelaçadas através de algoritmos matemáticos numa matriz lógica. O mais impressionante é que — mesmo que dois terços dos nós da rede falhem ao mesmo tempo, as partículas restantes podem ser usadas para reconstruir os dados completos através de cálculos matriciais.
Este design oferece uma vantagem de eficiência que se nota imediatamente. Outros protocolos costumam ter redundâncias de dezenas de vezes, enquanto o Walrus consegue atingir a mesma ou até maior fiabilidade com apenas 4 a 5 vezes de overhead. O custo cai drasticamente. Finalmente, os desenvolvedores deixam de se preocupar tanto com os custos de armazenamento.