Mi amigo me quejaba, y ahora lo que más le preocupa no son las fluctuaciones del mercado, sino “que el sistema tome decisiones por ti”. Dice que ya está acostumbrado a perder dinero, pero no soporta una situación:


El dinero se acaba, y ni siquiera sabe por qué.
No es que le hayan hackeado, ni que haya cometido errores en la operación, sino una frase:
“Modelo de IA que decide automáticamente.”
En el contexto de la cadena, esto es especialmente peligroso.
Todos hemos pasado por esa etapa inicial de DeFi.
Contratos de caja negra, parámetros misteriosos, el fundador diciendo “confía en el código”, y cuando pasa algo, toda la red empieza a hacer arqueología.

Ahora muchos proyectos de IA, en esencia, están repitiendo el mismo camino de siempre.
Modelos más complejos, acciones más rápidas, permisos mayores, pero la transparencia es aún menor.
Cuando la IA empieza a gestionar fondos, riesgos y permisos, el problema ya no es si es inteligente o no, sino: ¿en qué está pensando en cada paso? ¿Ha sido modificada en medio del proceso? ¿Puedes hacer un análisis posterior?

La mayoría de los proyectos no pueden responder a esto.
Por eso, cuando vi @inference_labs, sentí que era diferente. No te hablan de rendimiento, escala o capacidad de procesamiento, sino que abordan un problema fundamental que siempre se ha evitado:
¿Se puede verificar la decisión de la IA como una transacción en la cadena?
Lo que hace Proof of Inference es simple pero brutal:
No es “lo he calculado”, sino “puedes verificarlo tú mismo”.
DSperse, JSTprove, siguen la misma lógica:
Convertir cada razonamiento y ejecución de la IA en algo con origen, proceso y resultado.
No es una historia, es un registro.
Puedes entenderlo como si le pusieras a la IA un sistema de auditoría en la cadena.
Al igual que confiamos en los contratos inteligentes, no porque nunca fallen, sino porque:
Una vez que fallan, puedes revisar todo el proceso.
Cuándo se llamó, qué entradas se usaron, la responsabilidad es clara.
Para mí, @inference_labs no está haciendo una IA más agresiva,
sino preparando un vallado para que la “IA entre en el mundo real” de forma segura.
Si la IA siempre es una caja negra, por muy potente que sea, solo generará inseguridad.
Pero cuando puede ser reproducida, auditada y responsabilizada, entonces sí merece ser utilizada de verdad.
Ver originales
post-image
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
0/400
Sin comentarios
  • Anclado

Opera con criptomonedas en cualquier momento y lugar
qrCode
Escanea para descargar la aplicación de Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)