Walrus заявляє про намір створити децентралізовану мережу пам’яті, ідеал дуже амбітний. Але при відкритті моніторингових даних стає зрозуміло, що екосистема вузлів у реальності дуже вразлива перед справжнім тиском.
Згідно з даними моніторингу спільноти, станом на січень 2026 року активних вузлів у всій мережі Walrus приблизно 620. Звучить ще прийнятно, але при глибшому аналізі виникають проблеми. З цих вузлів 63% розміщені у трьох великих хмарних сервісах — AWS, GCP, Azure; географічний розподіл ще більш дивний — 78% вузлів зосереджені у Північній Америці та Західній Європі.
Такий високий ступінь концентрації створює великі ризики. Користувачі з Азії, Африки, Південної Америки мають дуже повільний доступ. За даними реальних тестів, для завантаження 10MB Blob у Китаї потрібно в середньому 12 секунд. Найстрашніше — у разі збоїв AWS us-east-1 або отримання юридичного наказу про видалення, багато фрагментів одночасно зламаються. Це не децентралізація, а скоріше "гарне розподілене хостинг-обслуговування".
Ще більш реальна проблема — рівень офлайн-стану вузлів. Через дуже мізерні стимули — за оцінками, місячний дохід менше 5 доларів США за ТБ — вузли здебільшого працюють на ентузіазмі. В результаті у вихідні вони онлайн до 90%, а у робочі дні раптово падають до 60%. Ефективне резервування холодних Blob динамічно коливається, успіх відновлення нестабільний, що явно не відповідає базовим вимогам протоколу зберігання.
Теоретично, кодек Red Stuff дозволяє відновити дані з лише 30% фрагментів, і це звучить непогано. Але за умови рівномірного розподілу фрагментів. На практиці? Нові Blob зазвичай пріоритетно захоплюють кілька популярних вузлів, і в кінцевому підсумку фрагменти концентруються саме там. Уявіть, що ці вузли раптом всі стануть офлайн — наприклад, через прострочений рахунок у хмарі — навіть якщо кількість вузлів у мережі відповідає нормі, певний Blob все одно буде втрачено.
Найіронічніше — відсутність будь-яких механізмів покарання. Вузли можуть вибірково обслуговувати гарячі дані, а холодні запити ігнорувати — протокол безсилий у цьому. У порівнянні з моделлю штрафів і конфіскацій у Filecoin або прив’язкою нагород у Arweave, система Walrus здається надто розслабленою.
По суті, децентралізація у Walrus ще перебуває на рівні "розподіленого" зберігання і дуже далека від справжньої P2P-мережі з високою стійкістю. Зазвичай все спокійно, але при тиску з боку цензури, системних збоїв або економічних труднощів, питання стійкості стає відкритим.
Суть децентралізації полягає не у кількості вузлів, а у здатності протистояти відмові окремих точок. І у цьому найважливішому аспекті Walrus поки що не пройшов.
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
Walrus заявляє про намір створити децентралізовану мережу пам’яті, ідеал дуже амбітний. Але при відкритті моніторингових даних стає зрозуміло, що екосистема вузлів у реальності дуже вразлива перед справжнім тиском.
Згідно з даними моніторингу спільноти, станом на січень 2026 року активних вузлів у всій мережі Walrus приблизно 620. Звучить ще прийнятно, але при глибшому аналізі виникають проблеми. З цих вузлів 63% розміщені у трьох великих хмарних сервісах — AWS, GCP, Azure; географічний розподіл ще більш дивний — 78% вузлів зосереджені у Північній Америці та Західній Європі.
Такий високий ступінь концентрації створює великі ризики. Користувачі з Азії, Африки, Південної Америки мають дуже повільний доступ. За даними реальних тестів, для завантаження 10MB Blob у Китаї потрібно в середньому 12 секунд. Найстрашніше — у разі збоїв AWS us-east-1 або отримання юридичного наказу про видалення, багато фрагментів одночасно зламаються. Це не децентралізація, а скоріше "гарне розподілене хостинг-обслуговування".
Ще більш реальна проблема — рівень офлайн-стану вузлів. Через дуже мізерні стимули — за оцінками, місячний дохід менше 5 доларів США за ТБ — вузли здебільшого працюють на ентузіазмі. В результаті у вихідні вони онлайн до 90%, а у робочі дні раптово падають до 60%. Ефективне резервування холодних Blob динамічно коливається, успіх відновлення нестабільний, що явно не відповідає базовим вимогам протоколу зберігання.
Теоретично, кодек Red Stuff дозволяє відновити дані з лише 30% фрагментів, і це звучить непогано. Але за умови рівномірного розподілу фрагментів. На практиці? Нові Blob зазвичай пріоритетно захоплюють кілька популярних вузлів, і в кінцевому підсумку фрагменти концентруються саме там. Уявіть, що ці вузли раптом всі стануть офлайн — наприклад, через прострочений рахунок у хмарі — навіть якщо кількість вузлів у мережі відповідає нормі, певний Blob все одно буде втрачено.
Найіронічніше — відсутність будь-яких механізмів покарання. Вузли можуть вибірково обслуговувати гарячі дані, а холодні запити ігнорувати — протокол безсилий у цьому. У порівнянні з моделлю штрафів і конфіскацій у Filecoin або прив’язкою нагород у Arweave, система Walrus здається надто розслабленою.
По суті, децентралізація у Walrus ще перебуває на рівні "розподіленого" зберігання і дуже далека від справжньої P2P-мережі з високою стійкістю. Зазвичай все спокійно, але при тиску з боку цензури, системних збоїв або економічних труднощів, питання стійкості стає відкритим.
Суть децентралізації полягає не у кількості вузлів, а у здатності протистояти відмові окремих точок. І у цьому найважливішому аспекті Walrus поки що не пройшов.