Web3 aplicaciones enfrentan un problema difícil de evitar: los datos son demasiado caros. No solo los costos de almacenamiento son exorbitantes, sino que la velocidad de recuperación también es insuficiente. El resultado es que todos evaden este problema—dejando los datos importantes en servidores centralizados, y solo almacenando un hash en la cadena. De esta forma, toda la idea de descentralización queda en el aire.
El protocolo Walrus de Mysten Labs busca resolver esta contradicción desde sus raíces. Se posiciona como una red de almacenamiento descentralizado diseñada específicamente para objetos binarios grandes. Suena discreto, pero la tecnología detrás es completamente diferente.
**Las vulnerabilidades de los métodos tradicionales son evidentes.** ¿Cómo hacen la mayoría de los protocolos de almacenamiento? De manera simple y brutal—copiando múltiples copias. Una data se replica 10, 20 veces, para asegurarse de no perderla. Pero, ¿a qué costo? Explosión en ancho de banda, desperdicio de espacio, y una economía que simplemente no cuadra.
Walrus utiliza una técnica llamada código de borrado Red Stuff. La idea central es usar códigos de fuente para dividir el archivo original en innumerables fragmentos diminutos (llamados Slivers). Estos fragmentos no son copias simples, sino que se entrelazan mediante algoritmos matemáticos en una matriz lógica. Lo más impresionante es que—incluso si dos tercios de los nodos en la red fallan simultáneamente, los fragmentos restantes pueden reconstruir los datos completos mediante operaciones matriciales.
La eficiencia de este diseño se revela rápidamente. Otros protocolos suelen tener redundancias de decenas de veces, mientras que Walrus con solo 4 a 5 veces de sobrecoste puede lograr la misma o incluso mayor fiabilidad. El costo cae de forma drástica. Los desarrolladores finalmente ya no tienen que preocuparse por los costos de almacenamiento.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
14 me gusta
Recompensa
14
8
Republicar
Compartir
Comentar
0/400
RooftopReserver
· hace22h
Por fin alguien enfrenta directamente este problema, la estrategia de copiar diez o veinte veces ya es simplemente absurda
La idea de los códigos de corrección de errores es realmente impresionante, pero me pregunto—¿los nodos también serán como el gato de Schrödinger, muertos y vivos a la vez?
Otra vez el salvador tecnológico y la caída masiva de costos, ¿por qué no puedo confiar en ello?
La tecnología de bloques rojos suena potente, pero lo que realmente importa es si puede sostener todo el ecosistema, ¿verdad?
Parece una inyección para dar vida a la descentralización, pero ¿qué pasa después de ponérsela?
El redundancia de 4 a 5 veces suena a ahorro, pero ¿quién diablos puede poner datos con confianza al 100%?
Bueno, quizás esta vez no sea solo humo, pero igual me subo a la azotea a reservar un lugar, y ya veremos
Ver originalesResponder0
TokenomicsTinfoilHat
· 01-17 07:03
Finalmente alguien se atreve a abordar este punto sensible: los costos de almacenamiento deberían haberse eliminado hace tiempo
La tecnología de corrección de errores de Walrus realmente tiene valor, 4 a 5 veces de redundancia para eliminar decenas de veces de basura, eso sí que es matemáticas
La frase de que la descentralización ha sido vaciada de contenido va al grano, ¿no siguen siendo la mayoría de los proyectos en cadena solo disfraces de bases de datos centralizadas?
La idea de los códigos de fuente es genial, pero lo crucial es si el modelo económico puede funcionar, no sea que vuelva a ser solo una obra maestra académica
¿Puede recuperarse con solo 2/3 de los nodos caídos? Esa estabilidad realmente me emociona
Espera, ¿en qué se diferencia esto fundamentalmente de los esquemas de almacenamiento de conocimiento cero que vimos antes? ¿O es otra cosa sobrevalorada?
Que los desarrolladores ahorren dinero es bueno, pero quiero saber cómo están diseñados los incentivos para los validadores, no vaya a ser que luego sea solo otra estrategia para cortar las ganancias de los inversores
Ver originalesResponder0
RugpullTherapist
· 01-17 07:03
Escucha, la verdadera descentralización murió por el coste, y ahora finalmente alguien quiere resolverlo en serio.
La idea de código de corrección de errores de Walrus es realmente genial, con una redundancia de 4 a 5 veces puede hacer en una décima parte del esfuerzo lo que otros hacen con 10 veces más, esa es la arquitectura que debería existir.
Antes, esos proyectos simplemente subían los datos a servidores centralizados y todavía se atrevían a hablar de Web3, pero ahora parece una broma.
Ver originalesResponder0
GasGuzzler
· 01-17 07:01
walrus esta codificación de corrección de errores es realmente increíble, finalmente alguien ha logrado reducir los costos de almacenamiento, 4 veces de redundancia eliminan decenas de veces, esto sí que es un avance técnico
Dicho esto, todos esos proyectos que se jactaban antes, ¿los datos no tenían que volver a los servidores centralizados? Qué risa, la capa descentralizada es solo una fachada
No entiendo mucho sobre las operaciones de matriz de código de fuente, pero poder recuperar 2/3 de los nodos caídos, esa estabilidad es realmente de primer nivel
Los desarrolladores finalmente no tienen que pelear por usar AWS, hay algo de esperanza en el ecosistema
En la cadena realmente hay que resolver el problema de los datos, de lo contrario Web3 será siempre un medio terminado
Ver originalesResponder0
TokenToaster
· 01-17 06:59
¡Eh, finalmente alguien ha explicado claramente este punto doloroso! Que el almacenamiento sea increíblemente caro es realmente impresionante.
La tecnología de códigos de corrección de errores es impresionante, no es de extrañar que antes no se usara a gran escala... Ahora, si Walrus realmente puede reducir los costos, los desarrolladores probablemente celebrarán en conjunto.
Espera, ¿esta tecnología Red Stuff es confiable? ¿Se puede recuperar con dos tercios de los nodos caídos? Es un poco increíble.
Finalmente hay un proyecto que no depende de apilar servidores para resolver problemas, eso sí que es una verdadera innovación.
Pero, para ser honestos, ¿cuál es la diferencia entre 4 a 5 veces de redundancia y varias veces más? Aunque la diferencia sea grande, los usuarios aún tienen que pagar... ¿Cuánto más barato sería? Esa es la clave.
Ver originalesResponder0
LiquidatorFlash
· 01-17 06:56
4 a 5 veces de redundancia frente a decenas de veces, la diferencia en números es tan grande... pero lo clave es qué umbral de estabilidad de los nodos se puede garantizar, ¿puede realmente mantenerse la hipótesis de que dos tercios de los nodos caen en una red con fluctuaciones reales?
Ver originalesResponder0
YieldHunter
· 01-17 06:51
honestamente walrus suena bien en teoría, pero déjame ver los números reales de TVL antes de emocionarme... la redundancia de datos en 4-5x en lugar de 20x+ es buena en papel, ¿realmente se mantiene la matemática cuando los nodos empiezan a fallar en la vida real?
Ver originalesResponder0
BearMarketMonk
· 01-17 06:39
El costo de almacenamiento es el punto débil de web3, finalmente alguien está tomando medidas serias. El código de corrección de errores es realmente impresionante, redundancia 4 veces supera la copia 10 veces, en términos económicos es una ventaja total.
---
Me gusta la idea de Walrus, pero todavía hay que ver cómo funciona en la práctica, los datos en papel siempre lucen bien.
---
Otra solución técnica para "salvar" web3, solo hay que escuchar, cuántas de estas realmente se pueden implementar.
---
¿Código de corrección de errores con materiales rojos? Parece que me han recomendado un montón de términos tecnológicos innovadores, pero ahorrar dinero es realmente lo importante, eso es suficiente.
---
El almacenamiento descentralizado siempre ha sido un tema polémico, todos almacenan fuera de la cadena, ahora solo piensan en mejorar los costos, eso es un avance.
---
Con un gasto de 4 a 5 veces, si realmente se logra reducir a la mitad, los desarrolladores podrán respirar aliviados, pero todavía no se sabe cuánto tiempo podrá vivir Walrus.
---
¿Es posible restaurar los datos después de fragmentarlos? Qué tan complejo debe ser ese modelo matemático, cómo se diseña el staking, nadie discute estos aspectos.
---
Mysten vuelve a la carga, parece que están haciendo de todo, que Walrus pueda destacar entre muchos protocolos de almacenamiento es lo que realmente importa.
Web3 aplicaciones enfrentan un problema difícil de evitar: los datos son demasiado caros. No solo los costos de almacenamiento son exorbitantes, sino que la velocidad de recuperación también es insuficiente. El resultado es que todos evaden este problema—dejando los datos importantes en servidores centralizados, y solo almacenando un hash en la cadena. De esta forma, toda la idea de descentralización queda en el aire.
El protocolo Walrus de Mysten Labs busca resolver esta contradicción desde sus raíces. Se posiciona como una red de almacenamiento descentralizado diseñada específicamente para objetos binarios grandes. Suena discreto, pero la tecnología detrás es completamente diferente.
**Las vulnerabilidades de los métodos tradicionales son evidentes.** ¿Cómo hacen la mayoría de los protocolos de almacenamiento? De manera simple y brutal—copiando múltiples copias. Una data se replica 10, 20 veces, para asegurarse de no perderla. Pero, ¿a qué costo? Explosión en ancho de banda, desperdicio de espacio, y una economía que simplemente no cuadra.
Walrus utiliza una técnica llamada código de borrado Red Stuff. La idea central es usar códigos de fuente para dividir el archivo original en innumerables fragmentos diminutos (llamados Slivers). Estos fragmentos no son copias simples, sino que se entrelazan mediante algoritmos matemáticos en una matriz lógica. Lo más impresionante es que—incluso si dos tercios de los nodos en la red fallan simultáneamente, los fragmentos restantes pueden reconstruir los datos completos mediante operaciones matriciales.
La eficiencia de este diseño se revela rápidamente. Otros protocolos suelen tener redundancias de decenas de veces, mientras que Walrus con solo 4 a 5 veces de sobrecoste puede lograr la misma o incluso mayor fiabilidad. El costo cae de forma drástica. Los desarrolladores finalmente ya no tienen que preocuparse por los costos de almacenamiento.