Mientras el mercado discute la inversión en hardware de almacenamiento y los umbrales de staking, hay una cuenta que rara vez se menciona: ¿cuáánta energía se consume realmente al ejecutar pruebas de almacenamiento de forma continua?



Tomemos Walrus como ejemplo, su diseño de prueba es mucho más simple que el de algunas redes de almacenamiento, pero desde otra perspectiva surge un problema. Las demandas de desafíos aleatorios de alta frecuencia y respuestas rápidas significan que los nodos deben estar siempre listos con recursos de cálculo. Esto no es una planificación tradicional de servidores de almacenamiento; en realidad, los nodos actúan como una especie de «máquina de prueba ligera».

¿Y cómo se consume exactamente? La verificación de fragmentos de codificación de borrado, responder a desafíos aleatorios de la red y la recuperación rápida de fragmentos de datos necesarios, todo esto consume continuamente CPU. En escenarios de almacenamiento de datos para entrenamiento de IA, si los datos están cifrados o codificados, la complejidad computacional de cada generación de prueba aumenta aún más.

Lo más importante es que este consumo no es una tarea que se pueda hacer de a cucharadas, sino un gasto continuo que crece linealmente con la cantidad de datos almacenados. Los operadores de nodos deben distribuir los costos de electricidad y depreciación del hardware en la tarifa, de lo contrario, la cuenta no cerrará.

¿Y dónde están los riesgos ahora? Si la red solo se remunera por capacidad de almacenamiento y ancho de banda, ignorando completamente el costo del cálculo de las pruebas, los operadores eventualmente usarán unidades de cálculo con rendimiento insuficiente para reducir costos. El resultado será una caída en la velocidad de respuesta y la fiabilidad de toda la red, formando un efecto de cuello de botella evidente.

A largo plazo, hay un problema aún más sutil. Para optimizar la eficiencia del cálculo de pruebas, los nodos pueden optar por usar cada vez más la misma configuración de hardware, con CPU o tarjetas aceleradoras iguales. Esto realmente mejora la eficiencia general de la red, pero a costa de reducir la diversidad de hardware, debilitando la descentralización.

Esto significa que el diseño del protocolo debe ser especialmente cuidadoso, buscando un equilibrio real entre la seguridad criptográfica y la accesibilidad del hardware común. No se puede perseguir una perfección matemática y, al mismo tiempo, empujar la operación de los nodos hacia una competencia de potencia centralizada y especializada. Esto no es solo un problema técnico, en el fondo es una cuestión filosófica sobre cómo debe gobernarse toda la red.
WAL2,17%
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • 6
  • Republicar
  • Compartir
Comentar
0/400
CodeAuditQueenvip
· hace20h
Otra vez esa misma vieja táctica, un diseño de algoritmo bonito pero un agujero negro de costos que nadie calcula.
Ver originalesResponder0
ProofOfNothingvip
· 01-16 19:47
Otra vez con esta estrategia, en realidad es que nadie quiere hacer cuentas del agujero negro de electricidad en la prueba de almacenamiento. El problema real es la homogeneización del hardware, cuanto más se optimiza, más centralizado se vuelve, y al final se golpean los pies con la misma piedra.
Ver originalesResponder0
governance_ghostvip
· 01-16 19:47
¡Vaya, por fin alguien ha mencionado esto! Todos están calculando el hardware y el staking, pero nadie se preocupa por cómo se calcula la factura de electricidad.
Ver originalesResponder0
AirdropHuntervip
· 01-16 19:44
Otro agujero negro de costos ignorado, realmente nadie calcula claramente el costo de la electricidad La prueba de almacenamiento consume CPU todos los días, cuanto mayor sea la cantidad de datos, más se quema, los operadores tarde o temprano tendrán que reducir costos o cerrar La homogeneización del hardware es dolorosa, para mejorar la eficiencia en lugar de descentralizar, ¿no es como cavarse su propia tumba? Hay que pensar bien en el protocolo, de lo contrario será solo un juego para los mineros profesionales, los pequeños mineros no podrán jugar en absoluto
Ver originalesResponder0
NFTRegrettervip
· 01-16 19:41
Tío, nadie ha calculado claramente los costos de electricidad, tarde o temprano surgirán grandes problemas... --- Otra carrera armamentística de hardware, centralización bajo la apariencia de descentralización, operaciones clásicas... --- Por eso, al final, sigue siendo una cuestión filosófica del diseño del protocolo, no un problema técnico, lo he entendido. --- La lógica de Walrus realmente ha quedado al descubierto, solo contar con el costo de almacenamiento en la red de almacenamiento no es suficiente. --- Una vez que los operadores de nodos comienzan a hacer recortes, toda la red se vuelve un tigre de papel, ese riesgo es evidente. --- La homogeneización del hardware trae eficiencia, pero a costa de colapsar la descentralización, ¿vale la pena esta transacción?
Ver originalesResponder0
QuorumVotervip
· 01-16 19:33
Eso es lo realmente importante, todos están calculando el costo del hardware, ¿pero quién calcula el costo de la electricidad? Si los costos de electricidad no se distribuyen de manera equitativa, directamente llevará a la quiebra a los operadores, ¿quién correrá hacia Walrus entonces? El diseño del protocolo, si no se presta atención, tiende a centralizarse, lo cual es realmente irónico.
Ver originalesResponder0
  • Anclado

Opera con criptomonedas en cualquier momento y lugar
qrCode
Escanea para descargar la aplicación de Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)