Друзі скаржаться мені, що зараз їх найбільше лякає не коливання ринку, а «система, яка приймає рішення за тебе». Він каже, що вже звик втрачати гроші, але не може витримати однієї ситуації:
Гроші зникли, а ти навіть не знаєш, чому саме так сталося. Це не злом, не помилка в операції, а одне речення: «Модель AI автоматично приймає рішення.» Якщо це поставити в контекст блокчейну, то це особливо небезпечно. Ми всі пережили той період раннього DeFi. Чорний ящик контрактів, таємничі параметри, один з засновників каже «довіряйте коду», і коли щось трапляється, вся мережа починає розкопки.
Зараз багато AI-проектів по суті повторюють один і той самий старий шлях. Моделі стають складнішими, дії швидшими, права ширшими, але прозорість навпаки зменшується. Коли AI починає працювати з капіталом, управління ризиками, виконавчими повноваженнями, проблема вже не в тому, наскільки він розумний, а в тому: що він думає на кожному кроці? Чи змінювали його? Чи можеш ти проаналізувати його дії пізніше?
Більшість проектів цього не зможуть відповісти. Саме тому, коли я дивився @inference_labs, мені здалося, що це щось інше. Вони не говорять про продуктивність, масштаб або пропускну здатність, а доповнюють одну з найважливіших, але ігнорованих базових проблем: Чи можна перевірити рішення AI так само, як транзакцію в блокчейні. Proof of Inference — це дуже проста і дуже жорстока ідея: Не «я вже порахував», а «ти можеш перевірити сам». DSperse, JSTprove — це теж той самий логіка: Зробити кожне мислення і виконання AI джерелом, процесом і результатом. Це не історія, а запис. Можна уявити, що це додавання системи аудиту на блокчейні для AI. Як і з довірою до смарт-контрактів, не тому, що вони ніколи не помиляються, а тому, що: Якщо щось трапиться, ти можеш побачити весь процес. Коли викликали, які вхідні дані використовували, відповідальність чітка. Тому для мене @inference_labs — це не про створення більш агресивного AI, а про попереднє встановлення бар’єрів для «справжнього входження AI у реальний світ». Якщо AI залишиться чорним ящиком назавжди, навіть найсильніший, він лише створюватиме відчуття небезпеки. Але коли його можна відтворити, перевірити і притягнути до відповідальності, він стане справді корисним.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
Друзі скаржаться мені, що зараз їх найбільше лякає не коливання ринку, а «система, яка приймає рішення за тебе». Він каже, що вже звик втрачати гроші, але не може витримати однієї ситуації:
Гроші зникли, а ти навіть не знаєш, чому саме так сталося.
Це не злом, не помилка в операції, а одне речення:
«Модель AI автоматично приймає рішення.»
Якщо це поставити в контекст блокчейну, то це особливо небезпечно.
Ми всі пережили той період раннього DeFi.
Чорний ящик контрактів, таємничі параметри, один з засновників каже «довіряйте коду», і коли щось трапляється, вся мережа починає розкопки.
Зараз багато AI-проектів по суті повторюють один і той самий старий шлях.
Моделі стають складнішими, дії швидшими, права ширшими, але прозорість навпаки зменшується.
Коли AI починає працювати з капіталом, управління ризиками, виконавчими повноваженнями, проблема вже не в тому, наскільки він розумний, а в тому: що він думає на кожному кроці? Чи змінювали його? Чи можеш ти проаналізувати його дії пізніше?
Більшість проектів цього не зможуть відповісти.
Саме тому, коли я дивився @inference_labs, мені здалося, що це щось інше. Вони не говорять про продуктивність, масштаб або пропускну здатність, а доповнюють одну з найважливіших, але ігнорованих базових проблем:
Чи можна перевірити рішення AI так само, як транзакцію в блокчейні.
Proof of Inference — це дуже проста і дуже жорстока ідея:
Не «я вже порахував», а «ти можеш перевірити сам».
DSperse, JSTprove — це теж той самий логіка:
Зробити кожне мислення і виконання AI джерелом, процесом і результатом.
Це не історія, а запис.
Можна уявити, що це додавання системи аудиту на блокчейні для AI.
Як і з довірою до смарт-контрактів, не тому, що вони ніколи не помиляються, а тому, що:
Якщо щось трапиться, ти можеш побачити весь процес.
Коли викликали, які вхідні дані використовували, відповідальність чітка.
Тому для мене @inference_labs — це не про створення більш агресивного AI,
а про попереднє встановлення бар’єрів для «справжнього входження AI у реальний світ».
Якщо AI залишиться чорним ящиком назавжди, навіть найсильніший, він лише створюватиме відчуття небезпеки.
Але коли його можна відтворити, перевірити і притягнути до відповідальності, він стане справді корисним.