Beaucoup de personnes, face à des performances insatisfaisantes d'un modèle d'IA, ont pour première réaction de critiquer l'algorithme lui-même. Mais en y réfléchissant bien, le modèle n'est en réalité qu'une exécution fidèle des "instructions" données par les données — ce qu'il apprend, il le reproduit.



Si le résultat final semble complètement aberrant ? Il faut alors remonter à la source. Vérifiez d'abord la qualité de la source de données. Le problème vient-il de la qualité de l'ensemble d'entraînement ou bien les caractéristiques d'entrée sont-elles biaisées ? Ce changement de mentalité influencera directement votre façon de construire l'ensemble du système. Plutôt que d'ajuster constamment les paramètres, il vaut mieux concentrer plus d'énergie sur le nettoyage et la préparation des données. De petites modifications, de grandes différences.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • 5
  • Reposter
  • Partager
Commentaire
0/400
ForkYouPayMevip
· Il y a 5h
Les données de mauvaise qualité entrent, le modèle de mauvaise qualité en sort, c'est aussi simple que ça. Beaucoup continuent à blâmer l'algorithme Blâmer l'algorithme depuis toutes ces années, c'est vraiment injuste. En fin de compte, il faut commencer par la source C'est la leçon de Web3 : garbage in, garbage out. Avant de nettoyer les données, tout est inutile Tu as raison, plutôt que de jouer avec les paramètres, il vaut mieux bien gérer les données, c'est plus efficace, mon vieux Plutôt que de blâmer le modèle, blâmons notre propre jeu de données. Pas autant de gens qui viennent ici Je suis tout à fait d'accord, beaucoup de projets échouent à cause de la qualité des données C'est la bonne voie, 80 % des problèmes viennent en fait de la phase de prétraitement
Voir l'originalRépondre0
TokenCreatorOPvip
· Il y a 5h
Les données de mauvaise qualité entrent, des modèles de mauvaise qualité en sortent, ce n'est pas du bon sens, haha --- Encore une fois, une foule de personnes rejettent la faute sur l'algorithme, c'est vraiment désespérant, ils ne regardent même pas les données qu'ils alimentent --- Bravo, enfin quelqu'un en parle, les passionnés de réglages devraient vraiment réfléchir --- C'est pourquoi je dis que les ingénieurs en données sont plus précieux que les ingénieurs en algorithmes, personne ne veut l'entendre --- Le nettoyage des données peut effectivement résoudre 80 % des problèmes, mais personne ne veut faire ce genre de travail "ennuyeux" --- Mort de rire, une foule de personnes copient-collent des ensembles de données puis commencent à blâmer le modèle, tant pis pour eux --- Donc, l'essentiel est de trouver une source de données propre, tout le reste n'est que vanité --- Exactement, garbage in, garbage out, la vérité éternelle
Voir l'originalRépondre0
SchrödingersNodevip
· Il y a 5h
Les données deviennent inutilisables, le modèle devient un monstre, ce n'est pas du bon sens haha Il faut vraiment contrôler la source, les experts en réglages doivent se réveiller Tout à fait d'accord, beaucoup aiment rejeter la faute sur l'algorithme, alors qu'en réalité, ce qu'ils ont alimenté est déjà pourri Avez-vous déjà rencontré ce genre de situation où le jeu de données est complètement catastrophique et où l'on blâme encore le modèle On a l'impression que la plupart des gens ne réalisent pas à quel point la qualité des données est importante Exactement, plutôt que de faire des réglages frénétiques, il vaut mieux d'abord nettoyer les données C'est pour ça que les bons ingénieurs passent toujours du temps à peaufiner la qualité des données
Voir l'originalRépondre0
GamefiGreenievip
· Il y a 5h
Tu as tout à fait raison, garbage in garbage out, c'est aussi simple que ça. Il y a deux jours, notre projet a échoué de cette manière, on blâmait toujours le modèle, mais on a finalement découvert que le problème venait du jeu de données lui-même. Le nettoyage des données est la partie la plus importante, mais malheureusement, beaucoup de gens ne veulent pas y consacrer d'efforts. C'est comme l'interaction sur la chaîne, si l'adresse est incorrecte, même le contrat le plus puissant ne servira à rien.
Voir l'originalRépondre0
SchrodingersFOMOvip
· Il y a 5h
C'est tellement vrai, j'ai déjà fait cette erreur auparavant, ajuster les paramètres jusqu'à l'épuisement, et ce n'est qu'à la fin que je me suis rendu compte que c'était un problème de données. La phrase "garbage in, garbage out" est vraiment une leçon de sang et de larmes, il faut bien réfléchir. Le modèle n'est qu'un miroir, si l'image est moche, c'est parce que la source est sale, réparer le miroir ne sert à rien. C'est pourquoi les data scientists sont plus précieux que les ingénieurs en réglage de paramètres, le cœur du problème est de solidifier les bases. Mon Dieu, si j'avais lu cet article plus tôt, je n'aurais pas gaspillé autant de puissance de calcul, mon portefeuille en souffre.
Voir l'originalRépondre0
  • Épingler

Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • بالعربية
  • Português (Brasil)
  • 简体中文
  • English
  • Español
  • Français (Afrique)
  • Bahasa Indonesia
  • 日本語
  • Português (Portugal)
  • Русский
  • 繁體中文
  • Українська
  • Tiếng Việt