يظل مجال التخزين اللامركزي يتكرر دائماً — فالأمان يتطلب تكلفة، وتكلفة الزيادة تؤدي إلى زيادة التكرار، وفي النهاية يتعثر الأمر. انظر إلى الحلول الحالية لتفهم الأمر: طريقة Filecoin تضمن أمان البيانات عبر تكرار 25 ضعفاً، والتكلفة تكون عالية جداً؛ تحاول Arweave تقليل التكاليف، لكنها تظهر عجزاً عند التعامل مع تحديثات البيانات الديناميكية.
استخدم Walrus نهجاً مختلفاً. تقنيته RedStuff 2D لترميز تستخدم عملية XOR خفيفة الوزن بدلاً من الحسابات المعقدة للمتعددات الحدود التقليدية، ماذا يعني ذلك؟ يمكن تقليل عامل التكرار إلى 4-5 أضعاف، والأداء يصبح أكثر استقراراً. والأهم من ذلك هو القدرة على التحمل — حتى لو فقد ثلثي القطع، لا يزال النظام قادرًا على استعادة البيانات بسرعة، وتقليل زمن التأخير في القراءة إلى مستوى المللي ثانية.
هذا ليس مجرد تحسين في المعلمات، بل هو تحول في نموذج بنية التخزين — من الحماية السلبية عبر النسخ الاحتياطي البارد إلى إدارة نشطة للتخزين الحي، مما يزيل أكبر عقبة أمام تطبيقات Web3 متعددة الوسائط (مثل الفيديو على السلسلة، وتخزين الملفات الكبيرة) على نطاق واسع.
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
تسجيلات الإعجاب 8
أعجبني
8
6
إعادة النشر
مشاركة
تعليق
0/400
CrossChainBreather
· منذ 6 س
واو، فكرة Walrus فعلاً رائعة، مضاعفات أربعة أو خمسة أضعاف تتجاوز بشكل مذهل الـ 25 ضعف لـ Filecoin... أخيرًا هناك من يجرؤ على حل هذا اللغز.
شاهد النسخة الأصليةرد0
governance_ghost
· 01-13 13:56
ملفكوين، تلك النسخة المكررة بمقدار 25 ضعف، حقًا أمر مبالغ فيه، لم أفكر أبدًا في أن الاستمرار على هذا النحو قد يضر بنفسك؟
فكرة ترميز XOR في walrus جديدة حقًا، القدرة على تحقيق 4 إلى 5 أضعاف النسخ تعتبر إنجازًا جيدًا
لكن الأداء الفعلي للبيانات الديناميكية يعتمد على نتائج الاختبار، المعايير النظرية قد تبدو جيدة ولكنها ليست دائمًا موثوقة
أخيرًا، أصبح هناك من يفكر في حل المشكلة من مستوى الهيكلية، وليس فقط زيادة التكاليف بشكل أعمى
25倍复制؟ يا إلهي، تكاليف Filecoin هذه فاحشة بما يكفي، و压缩 Walrus بمقدار 4-5 مرات هو حقًا ضربة قاضية
هذه الفكرة من Walrus فيها شيء ما، استبدال العمليات XOR بالمعادلات متعددة الحدود، بسيط وقوي وفعال
عملية RedStuff 2D تبدو وكأنها مصممة خصيصًا لمقاطع الفيديو على السلسلة، وأخيرًا هناك من فهم مشكلة الاختناق في التخزين
كمون منخفض جدًا مع تحمل الخطأ في ثلاثة أرباع الشظايا؟ إذا كانت مستقرة حقًا، فستحتاج إلى إعادة تقييم نظام Filecoin
لكن الخوف هو أن يكون مجرد تضخيم للمفاهيم، على Walrus أن يعتمد على البيانات ليبرهن
تحول في نمط الهندسة المعمارية، يبدو رائعًا جدًا، لكن هل يمكن أن يتحقق على أرض الواقع أم لا؟
4-5 مرات مقابل 25 مرة، هذا المقارنة قاسية بعض الشيء، وFilecoin بدأ يشعر بالقلق
انتظر، هل يستخدم RedStuff 2D ترميز XOR بدلاً من كثيرات الحدود؟ هذه الفكرة من حيث المبدأ لا بأس بها، لكني أود أن أسأل — هل قاموا بمراجعة حدود استعادة الأعطال؟ فقدان ثلثي الشظايا يمكن أن يستعيد بسرعة، لكن في الأنظمة الموزعة، "السرعة" غالبًا ما تؤدي إلى أخطاء كارثية
الكمون بالمللي ثانية يبدو دائمًا مثاليًا على الورق، لكن عند اختبار الشبكة الفعلي، تظهر المشاكل فورًا. لقد رأيت الكثير من مشاريع التخزين تروج لمعايير الأداء، لكن في بيئة الإنتاج، تظهر ثغرات إعادة الدخول واحدة تلو الأخرى
يظل مجال التخزين اللامركزي يتكرر دائماً — فالأمان يتطلب تكلفة، وتكلفة الزيادة تؤدي إلى زيادة التكرار، وفي النهاية يتعثر الأمر. انظر إلى الحلول الحالية لتفهم الأمر: طريقة Filecoin تضمن أمان البيانات عبر تكرار 25 ضعفاً، والتكلفة تكون عالية جداً؛ تحاول Arweave تقليل التكاليف، لكنها تظهر عجزاً عند التعامل مع تحديثات البيانات الديناميكية.
استخدم Walrus نهجاً مختلفاً. تقنيته RedStuff 2D لترميز تستخدم عملية XOR خفيفة الوزن بدلاً من الحسابات المعقدة للمتعددات الحدود التقليدية، ماذا يعني ذلك؟ يمكن تقليل عامل التكرار إلى 4-5 أضعاف، والأداء يصبح أكثر استقراراً. والأهم من ذلك هو القدرة على التحمل — حتى لو فقد ثلثي القطع، لا يزال النظام قادرًا على استعادة البيانات بسرعة، وتقليل زمن التأخير في القراءة إلى مستوى المللي ثانية.
هذا ليس مجرد تحسين في المعلمات، بل هو تحول في نموذج بنية التخزين — من الحماية السلبية عبر النسخ الاحتياطي البارد إلى إدارة نشطة للتخزين الحي، مما يزيل أكبر عقبة أمام تطبيقات Web3 متعددة الوسائط (مثل الفيديو على السلسلة، وتخزين الملفات الكبيرة) على نطاق واسع.