Les gens confondent souvent les scores de confiance avec la vérification réelle. Un modèle d'IA qui vous donne un score de confiance élevé ne signifie pas qu'il a raison — cela signifie simplement que le modèle pense qu'il a raison, ce qui est différent.
Le véritable changement de jeu ? Le consensus indépendant des modèles. Au lieu de faire confiance à la sortie d'un seul modèle tel quel, vous le faites passer par plusieurs modèles pour valider les résultats. Lorsque la vérification devient externe et distribuée plutôt qu'autoreférentielle, vous changez fondamentalement ce que signifie la vérification.
C'est le passage d'une confiance basée sur une seule source à une confiance construite par un consensus indépendant. C'est là que résident la véritable sécurité et fiabilité dans les systèmes d'IA.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
8 J'aime
Récompense
8
4
Reposter
Partager
Commentaire
0/400
CountdownToBroke
· 01-14 21:53
Putain, le score de confiance c'est juste l'auto-satisfaction de l'IA, ça ne sert à rien de le vérifier.
Voir l'originalRépondre0
GweiWatcher
· 01-14 21:50
Haha, un seul modèle avec un score élevé n'est vraiment pas utile, c'est juste qu'il se sent bien lui-même.
La véritable valeur réside dans la consensus multi-modèles, c'est la seule façon de se débarrasser de cette mise en scène de validation par soi-même.
Voir l'originalRépondre0
SleepyValidator
· 01-14 21:50
C'est vraiment absurde, le score de confiance d'un seul modèle est-il vraiment la vérité ? En clair, c'est se donner soi-même une note.
Voir l'originalRépondre0
CommunityLurker
· 01-14 21:39
ngl c'est le problème commun de l'IA, une confiance élevée ≠ une précision élevée, il faut plusieurs modèles qui se vérifient mutuellement pour que ce soit fiable
Les gens confondent souvent les scores de confiance avec la vérification réelle. Un modèle d'IA qui vous donne un score de confiance élevé ne signifie pas qu'il a raison — cela signifie simplement que le modèle pense qu'il a raison, ce qui est différent.
Le véritable changement de jeu ? Le consensus indépendant des modèles. Au lieu de faire confiance à la sortie d'un seul modèle tel quel, vous le faites passer par plusieurs modèles pour valider les résultats. Lorsque la vérification devient externe et distribuée plutôt qu'autoreférentielle, vous changez fondamentalement ce que signifie la vérification.
C'est le passage d'une confiance basée sur une seule source à une confiance construite par un consensus indépendant. C'est là que résident la véritable sécurité et fiabilité dans les systèmes d'IA.