Un ami se confie à moi, il dit que ce qui lui fait le plus peur maintenant ce ne sont pas les fluctuations du marché, mais « le système qui décide à ta place ». Il dit qu’il a déjà l’habitude de perdre de l’argent, mais ce qu’il ne supporte pas, c’est une situation :


L’argent disparaît, et tu ne sais même pas pourquoi.
Ce n’est pas un piratage, ce n’est pas une erreur d’opération, mais une phrase :
« Modèle IA qui décide automatiquement. »
Dans le contexte de la blockchain, cette situation est en fait particulièrement dangereuse.
Nous avons tous vécu cette époque où la DeFi était à ses débuts.
Contrats en boîte noire, paramètres mystérieux, une seule phrase du fondateur : « Faites confiance au code », et quand un problème survient, toute la communauté commence à faire des recherches.

Aujourd’hui, beaucoup de projets IA suivent essentiellement le même vieux chemin.
Modèles plus complexes, actions plus rapides, permissions plus étendues, mais la transparence est en réalité encore plus faible.
Lorsque l’IA commence à gérer des fonds, des risques, ou à avoir le pouvoir d’exécuter, le problème n’est pas qu’elle soit intelligente ou non, mais : comment pense-t-elle à cette étape ? A-t-elle été modifiée en cours de route ? Peut-on faire une rétrospective après coup ?

La plupart des projets ne peuvent pas répondre à ces questions.
C’est aussi ce qui, lorsque je regarde @inference_labs, me semble différent. Ils ne parlent pas de performance, d’échelle ou de débit, mais abordent une problématique fondamentale qui a toujours été évitée :
La décision de l’IA peut-elle être vérifiée comme une transaction sur la blockchain ?
Ce que fait Proof of Inference est simple mais brutal :
Ce n’est pas « j’ai calculé », mais « tu peux vérifier toi-même ».
DSperse, JSTprove suivent la même logique :
Transformer chaque raisonnement et exécution de l’IA en quelque chose avec une origine, un processus, un résultat.
Ce n’est pas une histoire, c’est un enregistrement.
On peut le voir comme une couche d’audit sur la blockchain pour l’IA.
Tout comme nous faisons confiance aux contrats intelligents, non pas parce qu’ils ne font jamais d’erreurs, mais parce que :
Une fois qu’une erreur se produit, tu peux tout voir en détail.
Quand ils ont été appelés, quels inputs ont été utilisés, la responsabilité est claire.
Pour moi, @inference_labs ne fait pas une IA plus radicale,
Mais prépare une barrière pour que « l’IA entre réellement dans le monde réel ».
Si l’IA reste à jamais une boîte noire, aussi puissante soit-elle, elle ne fera que renforcer le sentiment d’insécurité.
Mais quand elle pourra être reproduite, auditée, et tenue responsable, alors elle pourra vraiment être utilisée.
Voir l'original
post-image
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler

Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)