Le cofondateur d’OpenAI et ancien directeur de l’IA chez Tesla, Andrej Karpathy, a publié sur X un long billet sur « l’écart de perception des capacités de l’IA », en réponse à un phénomène observé dans la communauté : la fascination pour l’IA est très polarisée — d’un côté, des personnes estiment que l’IA a déjà réécrit le monde ; de l’autre, d’autres pensent que l’IA ne fait que halluciner, ennuie et a été trop encensée. Karpathy avance deux diagnostics et explique pourquoi ces deux groupes vivent en quelque sorte dans des « mondes parallèles », se méprenant mutuellement sur la base de leurs critères de jugement. Cet article synthétise ses propos et ce que cela implique pour les lecteurs technophiles à Taïwan.
Diagnostic 1 : de quelle année et de quel « niveau » d’IA s’agit-il que vous utilisez ?
La première observation de Karpathy est directe et tranchante : « Beaucoup de gens ont essayé l’édition gratuite de ChatGPT l’an dernier, et cette expérience a dominé leur perception de l’IA. » En général, ce groupe réagit en se moquant des réponses bizarres du modèle, des hallucinations, de la maladresse, et en partageant des vidéos où l’utilisation du mode voix avancé d’OpenAI — « je dois aller laver la voiture en voiture ou à pied » — fait complètement planter le sujet, sur une question simpliste.
Mais Karpathy souligne : ces modèles « version gratuite », « ancienne version », « abandonnée », ne reflètent pas les capacités des modèles agentic les plus avancés en 2026 (en particulier OpenAI Codex et Claude Code). En clair : utiliser ChatGPT gratuit de 2024 pour juger si l’IA sait programmer, c’est comme juger un smartphone avec un Nokia E71 de 2008.
Pour beaucoup de lecteurs à Taïwan, c’est aussi une réalité : s’abonner à ChatGPT Plus (20 dollars) reste plutôt courant, mais très peu de personnes s’abonnent à ChatGPT Pro (200 dollars) ou à Claude Max (100 dollars). Ceux qui n’ont jamais fait tourner des tâches agentic sur les formules payantes les plus avancées voient surtout l’IA comme « amusante mais peu fiable » ; ceux qui ont testé, la voient comme « une réécriture complète des workflows de travail ». La même technologie, deux univers différents.
Diagnostic 2 : les progrès des capacités sont « asymétriques » selon les domaines
Le deuxième diagnostic de Karpathy est encore plus intéressant : « Même si vous payez 200 dollars par mois pour utiliser les modèles les plus avancés, les progrès des capacités sont “en pics”, concentrés sur des domaines hautement techniques. »
Il explique que la recherche, la rédaction, les recommandations — bref, des requêtes typiques — ne sont pas les domaines où l’IA a le plus progressé ces dernières années. Deux raisons :
Le renforcement par apprentissage (RL) dépend de fonctions de récompense vérifiables : pour programmer, il y a un signal clair du type « tests unitaires passés », alors que l’écriture n’a pas de critères objectifs équivalents ; l’écart de vitesse de progrès du RL est donc très important
La plus grande valeur commerciale d’OpenAI, d’Anthropic et d’autres sociétés se trouve dans des scénarios B2B de code / recherche / ingénierie, donc les ressources, l’effectif et les priorités se concentrent sur ces domaines ; d’autres cas d’usage ne sont pas la source de profit la plus importante
Cette observation est essentielle : elle explique pourquoi « les capacités d’écriture de code progressent spectaculairement, mais l’écriture d’articles reste souvent assez banale » — un mystère qui laisse beaucoup de gens perplexes. Ce n’est pas que les entreprises d’IA ne peuvent pas le faire : leur « mine d’or » se trouve ailleurs, et l’attention y a été redirigée.
Qui subit le plus le « choc cognitif » de l’IA ? Deux conditions réunies
En combinant les deux diagnostics, Karpathy décrit le groupe qui est le plus susceptible d’être frappé par le choc cognitif de l’IA — celui qui remplit simultanément deux conditions :
Utiliser des modèles agentic les plus avancés en version payante (OpenAI Codex, Claude Code)
Utiliser la spécialisation dans des domaines hautement techniques (programmation, mathématiques, recherche)
Ces personnes sont les plus touchées par ce qu’on appelle le « AI Psychosis » — un terme utilisé par Karpathy pour décrire ce que vous ressentez quand, sous vos yeux, un LLM résout en quelques heures un problème de programmation qui aurait autrement demandé plusieurs jours à plusieurs semaines : ce jugement sur les capacités et la pente (slope) vous amène alors à avoir une vision radicalement différente de la configuration technologique des prochaines années.
Pour l’autre groupe (qui ne paye pas et n’utilise pas l’IA dans des contextes techniques), ce genre de discours ressemble à de l’« enthousiasme excessif », comme un mythe de cercle fermé propre à la Silicon Valley. Mais, pour Karpathy, ce n’est pas un mythe : c’est un jugement issu d’une expérience vécue.
Deux groupes « parlent de leurs mondes à eux »
La conclusion centrale de Karpathy : « Ces deux groupes se parlent entre eux, mais ne parlent pas avec l’autre. » Il décrit deux choses qui peuvent être vraies en même temps :
Le mode voix avancé gratuit d’OpenAI (et, selon moi, à moitié abandonné), qui fait échouer les questions les plus bêtes sur Instagram Reels
En parallèle, les modèles Codex au plus haut niveau payant d’OpenAI, qui consacrent 1 heure pour restructurer de bout en bout un codebase complet, ou trouver et exploiter des failles du système informatique
Les deux choses sont vraies et ne s’excluent pas. Mais chaque groupe ne voit que sa moitié, puis en vient à juger l’autre comme « trop emballé » ou « trop ignorant ». L’objectif du billet de Karpathy est précisément de combler ce fossé.
Ce que cela implique pour les lecteurs à Taïwan : à quel groupe appartenez-vous ?
Le raisonnement de Karpathy est particulièrement pertinent pour les lecteurs à Taïwan, car sur le plan des discours tech, Taïwan connaît aussi une polarisation : d’un côté, « l’IA a déjà pris le contrôle » ; de l’autre, « ce n’est qu’un chatbot ». Pour déterminer à quel groupe vous appartenez, vous pouvez vous poser 3 questions :
Depuis quand date votre dernière fois où vous avez mis un prompt à un modèle payant de pointe (GPT-5.5 Pro, Claude Opus 4.7) ?
Avez-vous déjà fait tourner un agent pendant plus de 30 minutes, jusqu’à accomplir réellement une tâche de niveau production (refondre du code, rédiger une synthèse de recherche, debugger un système complexe) ?
Sur quoi fondez-vous votre jugement sur les capacités de l’IA : des reportages médiatiques, des mèmes de réseau social, ou une utilisation personnelle ?
Si vous répondez « oui, récemment, usage personnel » aux trois questions, vous vous reconnaîtrez dans le deuxième groupe décrit par Karpathy, et vous comprendrez plus facilement son interprétation du « AI Psychosis ». Si vous répondez « non, il y a longtemps, vu dans les médias » aux trois questions, vous risquez d’être dans le premier groupe, et donc de sous-estimer fortement la vitesse des progrès de l’IA.
Ce n’est pas une question de savoir quel groupe a « raison », mais plutôt que les critères de jugement sont fondamentalement différents. Quand vous verrez le prochain article « l’IA est une bulle » ou « l’IA va remplacer tous les emplois », vérifiez d’abord à quel groupe l’auteur appartient, puis décidez comment le lire.
Ajout : le « moment OpenClaw » selon Karpathy
Dans des publications ultérieures, Karpathy précise : « Quelqu’un m’a récemment dit que si le moment OpenClaw est si important, c’est parce qu’il s’agit d’un grand groupe de personnes sans bagage technique, qui font, pour la première fois, l’expérience directe d’un agentic model avancé. » Cette observation montre que l’écart cognitif n’est pas seulement un écart de « degré », mais aussi un écart entre « expérience vécue » et « ouï-dire ».
Pour les lecteurs d’abmedia, la solution la plus pratique est la suivante : prenez 20 dollars, abonnez-vous pendant 1 mois à ChatGPT Plus ou Claude Pro, choisissez une vraie tâche qui vous intéresse (écrire un rapport de recherche, rassembler une analyse financière, debugger un projet de programmation), exécutez l’agent jusqu’au bout, puis revenez pour juger l’importance de l’IA pour votre travail. C’est plus utile que de lire 100 articles sur l’IA.
Pourquoi certaines personnes pensent que l’IA change le monde, et d’autres qu’elle est banale ? Les deux diagnostics de Karpathy apparaissent d’abord sur la chaîne ABMedia.
Articles similaires
R0AR progresse vers la manche finale du pitchfest Consensus 2026, manquant de peu le top 20
Musk réclame un règlement de 150 milliards de dollars avec OpenAI avant le procès, les discussions échouent
Cursor accepte l’offre d’acquisition de SpaceX de 60 milliards de dollars, mais ne s’associera pas à xAI sur des modèles de codage
Haun Ventures clôture un fonds de 1 milliard de dollars le 4 mai, répartit le capital entre des investissements crypto à un stade précoce et à un stade avancé
OpenAI lève $4 milliard pour une coentreprise de déploiement, évaluée à 10 milliards de dollars
Applied Digital obtient un financement relais de 300 millions de dollars pour un pont, mené par Goldman Sachs, pour ses centres de données d’IA