Un projet GitHub, andrej-karpathy-skills, ne contenant qu’un seul fichier Markdown, franchit les 15 000 étoiles et devient l’un des projets open source les plus populaires dans l’écosystème de Claude Code. Ce fichier CLAUDE.md s’appuie sur les observations d’un ancien directeur de l’IA chez Tesla, Andrej Karpathy, concernant les erreurs fréquentes commises lors de l’écriture de code avec des LLM. Il les transforme en règles de conduite directement exploitables par Claude Code.
Les travers de programmation avec des LLM observés par Karpathy
Karpathy souligne que les LLM commettent certaines erreurs prévisibles lorsqu’ils écrivent du code : sur-ingénierie (over-engineering), ignorer des motifs de code existants, et ajouter des dépendances là où ce n’est pas nécessaire. Ce ne sont pas des erreurs aléatoires, mais des biais systématiques dus à la manière dont le modèle est entraîné — le modèle a tendance à proposer des solutions « intelligentes », plutôt que des approches simples adaptées au contexte du projet.
L’idée clé est la suivante : puisque ces erreurs sont prévisibles, on peut les prévenir avec des instructions appropriées. C’est l’application concrète du « feedforward » dans le Harness Engineering — définir des règles avant même l’action de l’IA, plutôt que de corriger après coup.
Comment un fichier Markdown change le comportement de l’IA
CLAUDE.md est un fichier de configuration au niveau du projet pour Claude Code. Lorsque vous le placez dans le répertoire racine du projet, Claude Code le lit automatiquement et suit ses instructions à chaque démarrage. Ce fichier convertit les observations de Karpathy en quatre principes fondamentaux :
Exécution pilotée par l’objectif — transformer des instructions impératives en objectifs déclaratifs, avec une boucle de validation
Ne pas supposer — en cas d’incertitude, il faut d’abord confirmer, plutôt que deviner
Ne pas dissimuler la confusion — si vous ne comprenez pas le besoin, vous devez l’exprimer clairement
Mettre activement en évidence les compromis — lorsqu’il existe plusieurs options, présenter leurs avantages et inconvénients respectifs
Ces principes ressemblent à des recommandations pour des ingénieurs humains, mais dans le contexte de l’IA, ils ont une signification différente. Le comportement par défaut des LLM est de « produire la réponse la plus complète possible », même si cela implique de supposer les intentions de l’utilisateur ou de surconcevoir. CLAUDE.md oriente ces comportements par défaut vers une approche plus prudente.
La tendance derrière 15K étoiles : une nouvelle forme de l’ingénierie de prompts
L’explosion de ce projet reflète un changement dans la communauté des développeurs : on est passé de « utiliser l’IA pour écrire du code » à « un comportement de l’IA industrialisée qui améliore la qualité du code ». Dans le passé, le prompt engineering se concentrait sur la conception des invites pour une seule conversation ; aujourd’hui, l’accent est mis sur des règles de conduite persistantes — configurées une fois, efficaces durablement.
Cela fait aussi écho à un aspect de la tendance Vibe Coding qui n’a pas encore été suffisamment discuté : lorsque 92% des développeurs américains utilisent déjà des outils de programmation avec IA, la décision concernant la qualité du code ne dépend plus seulement des capacités du modèle, mais de la façon dont vous « gérez » le comportement de ce partenaire IA. Un bon CLAUDE.md peut être plus efficace que le choix d’un modèle plus performant.
Le projet a été créé par le développeur forrestchang, est 100% open source et, en plus du fichier principal CLAUDE.md, fournit aussi des versions pouvant être installées comme Claude Code Skill.
Cet article « CLAUDE.md inspiré de Karpathy dépasse 15K étoiles : un fichier Markdown pour dompter les mauvaises habitudes d’écriture de code par l’IA » apparaît pour la première fois dans Chaîne de nouvelles ABMedia.
Articles similaires
Hut 8 signe un contrat de 9,8 milliards de dollars pour un centre de données d'IA sur 15 ans, et le cours s'envole de 36 % en pré-marché
Core Scientific acquiert le mineur de Bitcoin Polaris pour 421 millions de dollars, étend ses opérations de centres de données d’IA
Hut 8 enregistre 16,8 milliards de dollars de revenus pour ses centres de données d’IA et libère 3 300 BTC au premier trimestre
Prophet lance un marché de prédiction alimenté par l’IA avec une tranche de trading en direct de 10 000 dollars aujourd’hui
WorldClaw lance WorldRouter avec WLFI, proposant plus de 300 modèles d’IA à un coût 30 % inférieur
Le bénéfice de Kakao Pay au T1 bondit de 141 % grâce à la croissance des services financiers