Друзья жаловались мне, что сейчас их больше всего пугает не колебания рынка, а «автоматическое принятие решений системой». Он говорит, что уже привык терять деньги, но не может вынести одну ситуацию:
Деньги исчезли, а понять, почему — не можешь. Это не взлом, не ошибка в операциях, а одна фраза: «Модель ИИ автоматически принимает решение.» Если рассматривать это в контексте блокчейна, то на самом деле это очень опасно. Мы все проходили через ранние этапы DeFi. Черные контракты, загадочные параметры, один из основателей говорит: «Доверяйте коду», — и когда что-то случается, весь интернет начинает копать.
Сейчас многие AI-проекты по сути повторяют одну и ту же старую дорожку. Модели становятся сложнее, действия быстрее, полномочия больше, но прозрачность при этом снижается. Когда ИИ начинает работать с финансами, управлять рисками и выполнять операции, проблема уже не в его умных или глупых решениях, а в том: как он вообще думает на этом шаге? Был ли он изменен в процессе? Можешь ли ты провести постфактум анализ?
Большинство проектов этого не смогут ответить. Именно поэтому, когда я смотрю на @inference_labs, я чувствую, что это что-то другое. Они не рассказывают о производительности, масштабах или пропускной способности, а дополняют одну из самых избегаемых основ: Могут ли решения ИИ быть проверены так же, как одна транзакция в блокчейне. Proof of Inference — это очень простая, но очень жесткая идея: Это не «я посчитал», а «ты можешь проверить сам». DSperse, JSTprove — это тоже один и тот же принцип: превратить каждое рассуждение и выполнение ИИ в что-то с источником, процессом и результатом. Это не история, а запись. Можно понять это как внедрение системы аудита ИИ прямо в цепочку. Как мы доверяем смарт-контрактам не потому, что они никогда не ошибаются, а потому, что: если что-то случится, ты можешь просмотреть весь процесс. Когда вызвали, какие входные данные использовали, ответственность ясна. Для меня @inference_labs — это не попытка сделать более агрессивный ИИ, а подготовка к тому, чтобы «ИИ по-настоящему вошел в реальный мир» с предохранительным барьером. Если ИИ всегда будет черным ящиком, даже самый мощный, он только создаст ощущение опасности. А когда его можно воспроизвести, проверить и привлечь к ответственности, он сможет по-настоящему заслужить использование.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
Друзья жаловались мне, что сейчас их больше всего пугает не колебания рынка, а «автоматическое принятие решений системой». Он говорит, что уже привык терять деньги, но не может вынести одну ситуацию:
Деньги исчезли, а понять, почему — не можешь.
Это не взлом, не ошибка в операциях, а одна фраза:
«Модель ИИ автоматически принимает решение.»
Если рассматривать это в контексте блокчейна, то на самом деле это очень опасно.
Мы все проходили через ранние этапы DeFi.
Черные контракты, загадочные параметры, один из основателей говорит: «Доверяйте коду», — и когда что-то случается, весь интернет начинает копать.
Сейчас многие AI-проекты по сути повторяют одну и ту же старую дорожку.
Модели становятся сложнее, действия быстрее, полномочия больше, но прозрачность при этом снижается.
Когда ИИ начинает работать с финансами, управлять рисками и выполнять операции, проблема уже не в его умных или глупых решениях, а в том: как он вообще думает на этом шаге? Был ли он изменен в процессе? Можешь ли ты провести постфактум анализ?
Большинство проектов этого не смогут ответить.
Именно поэтому, когда я смотрю на @inference_labs, я чувствую, что это что-то другое. Они не рассказывают о производительности, масштабах или пропускной способности, а дополняют одну из самых избегаемых основ:
Могут ли решения ИИ быть проверены так же, как одна транзакция в блокчейне.
Proof of Inference — это очень простая, но очень жесткая идея:
Это не «я посчитал», а «ты можешь проверить сам».
DSperse, JSTprove — это тоже один и тот же принцип:
превратить каждое рассуждение и выполнение ИИ в что-то с источником, процессом и результатом.
Это не история, а запись.
Можно понять это как внедрение системы аудита ИИ прямо в цепочку.
Как мы доверяем смарт-контрактам не потому, что они никогда не ошибаются, а потому, что:
если что-то случится, ты можешь просмотреть весь процесс.
Когда вызвали, какие входные данные использовали, ответственность ясна.
Для меня @inference_labs — это не попытка сделать более агрессивный ИИ,
а подготовка к тому, чтобы «ИИ по-настоящему вошел в реальный мир» с предохранительным барьером.
Если ИИ всегда будет черным ящиком, даже самый мощный, он только создаст ощущение опасности.
А когда его можно воспроизвести, проверить и привлечь к ответственности, он сможет по-настоящему заслужить использование.