Des données révèlent que « Claude devient moins intelligent » n’est pas une légende urbaine : le modèle d’IA est instable et constitue un risque pour l’entreprise

Après que l’IA soit devenue l’outil standard des entreprises, un phénomène autrefois considéré comme un simple « problème de ressenti » remonte rapidement à la surface : les LLM (grands modèles de langage) « deviennent plus bêtes ». Un internaute, Wisely Chen, a souligné que le prétendu « LLM qui se dégrade » n’est pas une légende urbaine : il est désormais possible de le suivre en continu grâce à des données, et cela commence déjà à avoir un impact concret sur les processus de travail en entreprise.

Il prend son propre cas comme exemple : le 15 avril, les services de la gamme Claude de l’éditeur Anthropic ont subi une dégradation généralisée, y compris claude.ai, l’API et Claude Code, qui affichent tous « Degraded Performance ». Ce n’est pas juste un ralentissement ou une erreur ponctuelle : la qualité des réponses s’est clairement effondrée, et même dans certains cas, il était impossible d’utiliser normalement le service. Résultat : ses trois tâches de développement du jour ont toutes été reportées.

Pour les développeurs individuels, ce type de situation peut n’entraîner qu’une baisse d’efficacité ; mais pour les équipes IT d’entreprise, l’impact est démultiplié. Lorsqu’une équipe compte plusieurs ingénieurs qui dépendent en même temps d’outils d’IA pour coder, rédiger des documents et automatiser des processus, une dégradation du modèle signifie que la productivité globale baisse collectivement au même moment, ce qui se traduit ensuite par une perte de temps et de coûts considérable.

L’IA a l’impression de devenir plus bête ? Les données prouvent que c’est « déjà dégradé »

Wisely Chen indique que des affirmations du type « GPT devient plus bête » ou « Claude n’est plus comme avant » circulent depuis longtemps dans la communauté, mais qu’elles manquaient d’un soutien de données objectives sur le long terme. Ce n’est que récemment, avec l’apparition de plateformes de suivi continu de la qualité des modèles, que ce phénomène a été quantifié pour la première fois.

Parmi elles, StupidMeter effectue des tests automatisés 24 heures sur 24 sur des modèles grand public, y compris OpenAI, Anthropic, Google, etc., en suivant des indicateurs comme la justesse, les capacités de raisonnement et la stabilité. Contrairement aux benchmark traditionnels ponctuels, ce type de système s’apparente davantage à une logique de surveillance d’API ou de disponibilité de services en entreprise : il observe les fluctuations des performances du modèle dans des environnements d’utilisation réels.

Les résultats des données sont assez parlants : à l’heure actuelle, la plupart des modèles grand public se trouvent en état d’alerte ou de dégradation, seuls quelques modèles maintiennent un fonctionnement normal. Cela signifie que la qualité des modèles est instable : ce n’est pas un problème propre à un produit unique, mais un phénomène répandu à l’échelle de l’ensemble de l’industrie.

Le LLM « se dégrade » en douce, affectant la stabilité des entreprises dans les workflows d’IA

Pour les entreprises, ce changement implique que l’IA n’est plus seulement un « outil d’optimisation de l’efficacité », mais devient une « variable qui impacte la stabilité ». Si, dans les activités quotidiennes, les flux de travail de l’entreprise dépendent déjà fortement de LLM — de l’écriture de code au code review, jusqu’à la production de documents et de rapports d’analyse — alors, lorsque le modèle présente, un jour donné, une baisse de capacité de raisonnement ou une dégradation de la qualité des réponses, ces problèmes ne se produisent pas de façon localisée comme le ferait un bug logiciel traditionnel : ils s’infiltrent simultanément dans toutes les étapes qui utilisent l’IA.

Le point le plus critique est que ces fluctuations sont souvent difficiles à prévoir et à détecter en temps réel. La plupart des entreprises n’ont pas de mécanisme leur permettant de surveiller en continu la qualité des modèles. Elles ne prennent généralement conscience du problème qu’après l’apparition de résultats anormaux, ou après une baisse de l’efficacité des équipes. Dans ce contexte, la « dégradation des capacités » n’est plus seulement un ressenti subjectif des utilisateurs : c’est un risque systémique qui affecte directement le rythme opérationnel de l’entreprise.

Quand l’IA devient l’eau et l’électricité, la stabilité devient le nouvel indicateur clé

Wisely Chen compare le rôle des LLM à « l’eau et l’électricité des entreprises modernes ». Lorsque l’IA s’est profondément intégrée aux opérations quotidiennes et est devenue une capacité de base indispensable, l’importance de sa stabilité augmente également.

Par le passé, l’évaluation des outils d’IA par les entreprises se concentrait surtout sur les capacités du modèle, le prix et les fonctionnalités. Mais avec l’apparition du phénomène de « dégradation », un autre indicateur, plus crucial encore, se met à émerger : la stabilité. Si la qualité des modèles peut varier sans notification, les entreprises ne font plus seulement « usage de l’IA » : elles doivent commencer à assumer un nouveau type de risque d’infrastructure. La situation est encore plus désespérante : si l’on ne regarde que les grands modèles de langage à la pointe, tant que les problèmes de puissance de calcul ne sont pas résolus, ils peuvent continuer à se produire.

Cet article Les données révèlent que « Claude dégrade » n’est pas une légende urbaine : l’instabilité des modèles d’IA devient un risque pour les entreprises est apparu pour la première fois dans Chaîne d’actualité ABMedia.

Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.

Articles similaires

L’IA engloutit 80% du capital-risque mondial, Q1 2026 attire 242 milliards de dollars : comment les acteurs de la cryptographie doivent réagir à la réallocation des capitaux

Selon les informations, au premier trimestre 2026, le montant total mondial du capital-risque est proche de 300 milliards de dollars, dont environ 242 milliards de dollars sont attribués exclusivement aux entreprises liées à l’IA, soit 80 % du capital-risque. Cela montre que l’IA est devenue le principal centre d’intérêt du capital-risque. À mesure que les fonds se concentrent sur l’IA, d’autres domaines comme le crypto sont sous pression, et les acteurs doivent ajuster leur stratégie : intégrer l’IA plus en profondeur dans leurs activités, et s’attendre à l’émergence d’une tendance à la consolidation des infrastructures.

ChainNewsAbmediaIl y a 2h

La police de Hong Kong met en garde contre l’arnaque crypto « trading quantitatif par IA », une femme perd 7,7 millions de HK$

La police de Hong Kong a révélé une fraude en cryptomonnaies dans laquelle une femme a perdu 7,7 millions de HK$ au profit d’escrocs se faisant passer pour des experts en investissement via Telegram, promettant de hauts rendements grâce au trading avec IA. La police a mis le public en garde contre les risques liés aux investissements en cryptomonnaies.

GateNewsIl y a 4h

Hong Kong annoncera demain la sixième série de la liste des entreprises clés

Le secrétaire aux finances de Hong Kong, Paul Chan, a annoncé le lancement d’une nouvelle liste d’entreprises clés, attirant plus de 100 entreprises évaluées à plus de 100 milliards de HKD dans des secteurs tels que les sciences de la vie, l’IA et la fintech, soulignant l’attrait de Hong Kong pour les investissements internationaux.

GateNewsIl y a 7h

Le robot Lightning d’Honor remporte le semi-marathon de robots humanoïdes de Pékin 2026 avec un temps de 50:26

Le robot humanoïde « Lightning » d’Honor a établi un nouveau record lors du semi-marathon de robots humanoïdes de Yizhuang à Pékin 2026, en bouclant la course en 50 minutes et 26 secondes, dépassant le record du monde humain.

GateNewsIl y a 10h

L’action de Meta progresse de 1,73 % tandis que la société prévoit un plan de licenciement de 8 000 emplois à partir du 20 mai

Meta Platforms prévoit de supprimer environ 8 000 emplois, soit 10 % de ses effectifs, à partir du 20 mai, malgré la hausse du cours de son action. La société, qui affiche plus de $200 milliards de revenus, concentre ses investissements dans l’IA dans un contexte de restructuration importante, s’alignant sur la tendance de licenciements observée dans l’industrie.

GateNewsIl y a 18h

Le rapport annuel de Google indique que Gemini réalise une interception en millisecondes, bloquant 99% des publicités frauduleuses

L’article explique que Google renforce la sécurité publicitaire grâce à son système d’intelligence artificielle générative Gemini ; le rapport indique que sa vitesse de détection des publicités non conformes a été réduite à des millisecondes, avec un taux de blocage atteignant 99 %. L’année dernière, Google a supprimé 8,3 milliards d’annonces et a suspendu 24,9 millions de comptes, ce qui montre que le nombre de publicités frauduleuses a fortement augmenté. Des experts estiment que c’est un affrontement entre intelligence artificielle et intelligence artificielle ; à l’avenir, il faudra encore faire face aux défis liés aux comportements légaux et illégaux induits par l’IA.

ChainNewsAbmediaIl y a 19h
Commentaire
0/400
Aucun commentaire