Écrit par : Ada, Deep Tide TechFlow
Pang Ruiming n’a pas encore pris ses marques chez Meta qu’il est déjà parti.
En juillet 2025, Zuckerberg a arraché ce talent chinois, très recherché dans le domaine des infrastructures d’IA, à Apple avec un plan de rémunération sur plusieurs années dépassant 200 millions de dollars. Pang Ruiming a été intégré au laboratoire d’intelligence artificielle super avancée de Meta, chargé de construire l’infrastructure de la prochaine génération de modèles d’IA.
Sept mois plus tard, OpenAI l’a recruté.
Selon The Information, OpenAI a lancé une campagne de recrutement intensive durant plusieurs mois. Bien que Pang Ruiming ait dit à ses collègues qu’il « travaillait très heureux chez Meta », il a finalement choisi de partir. D’après Bloomberg, sa rémunération chez Meta était liée à des jalons, et un départ anticipé signifiait renoncer à la majorité de ses actions non acquises.
200 millions de dollars, cela ne suffit pas pour 7 mois de loyauté.
Ce n’est pas une simple histoire de changement d’emploi.
Pang Ruiming n’est pas le premier à partir.
La semaine dernière, Mat Velloso, responsable de la plateforme de développement du laboratoire d’intelligence de Meta, a aussi annoncé son départ. Il était arrivé en juillet dernier de Google DeepMind, après moins de 8 mois chez Meta. Plus tôt, en novembre 2025, Yann LeCun, lauréat du prix Turing et chef scientifique en IA depuis 12 ans chez Meta, a annoncé son départ pour lancer sa propre entreprise, sur le « modèle mondial » qu’il prônait. Russ Salakhutdinov, vice-président de la recherche en IA générative chez Meta et disciple de LeCun, a également récemment quitté ses fonctions.
Pour comprendre la fuite des talents chez Meta AI, il faut d’abord mesurer à quel point Llama 4 a été blessé.
En avril 2025, Meta a lancé en grande pompe la série Llama 4 avec les modèles Scout et Maverick. Les données officielles semblaient impressionnantes : dans des benchmarks clés comme MATH-500 et GPQA Diamond, ils surpassaient largement GPT-4.5 et Claude Sonnet 3.7.
Mais ce modèle phare, porteur des ambitions de Meta, a rapidement été démasqué lors de tests indépendants en open source, révélant un écart énorme entre ses capacités de généralisation et de raisonnement et la communication officielle. Face aux critiques acerbes, Yann LeCun a fini par admettre que l’équipe avait utilisé différentes versions du modèle pour différents tests, afin d’optimiser le score final.
Dans le monde académique et technique de l’IA, cela a touché une corde sensible. En clair, l’équipe a entraîné Llama 4 comme un « petit élève » qui ne sait faire que répéter les sujets d’examen passés, plutôt qu’un véritable « élève brillant » doté d’une intelligence de pointe. Si vous testez en mathématiques, vous montrez la copie du roi des maths ; en programmation, celle du roi de la programmation. Chaque test semble impressionnant, mais ce ne sont pas les mêmes modèles.
Ce qu’on appelle en IA « cueillir des cerises » ou en éducation « faire de la triche ».
Pour Meta, qui se veut « phare de l’open source », cette tempête a détruit la confiance la plus précieuse dans son écosystème de développeurs. Le coût direct, c’est la perte de confiance de Zuckerberg dans la ligne de conduite de l’équipe GenAI, ce qui a ouvert la voie à des recrutements de cadres supérieurs et à la mise à l’écart des départements clés.
Il a dépensé entre 14,3 et 15 milliards de dollars pour acquérir 49 % de Scale AI, une société de labellisation de données, et a parachuté le jeune CEO de 28 ans, Alexandr Wang, comme directeur général de Meta. Il a créé le laboratoire d’intelligence super avancée (MSL). Le prix Nobel de Turing, LeCun, doit désormais rendre compte à ce jeune homme de 28 ans. En octobre, Meta a supprimé environ 600 postes au sein de MSL, y compris des membres du département FAIR, que LeCun avait lui-même fondé.
Le modèle phare prévu pour fin 2025, Llama 4 Behemoth, a été repoussé à plusieurs reprises, passant de l’été à l’automne, puis finalement mis en suspens indéfiniment.
Meta développe désormais un nouveau modèle de texte, nommé « Avocado », et un modèle d’image/vidéo, « Mango ». Selon les rumeurs, Avocado vise à concurrencer GPT-5 et Gemini 3 Ultra. Initialement prévu pour fin 2025, sa livraison a été reportée à 2026 en raison de performances insuffisantes lors des tests et de l’optimisation du training. Meta envisage de le rendre propriétaire, abandonnant la tradition d’open source de la série Llama.
Meta a commis deux erreurs fatales dans ses modèles IA : d’abord, falsifier les benchmarks, ce qui a détruit la confiance des développeurs ; ensuite, intégrer une recherche fondamentale, comme FAIR, qui demande une décennie pour porter ses fruits, dans une organisation orientée résultats trimestriels. Ces deux erreurs expliquent la fuite des talents.
Les talents courent, mais les puces aussi ont des problèmes.
Selon The Information, Meta a récemment abandonné son projet de puces d’entraînement IA ultra avancées.
Le projet de puces maison s’appelle MTIA (Meta Training and Inference Accelerator). La feuille de route ambitieuse prévoit la sortie de plusieurs versions : v4 « Santa Barbara », v5 « Olympus », v6 « Universal Core » entre 2026 et 2028. Olympus devait être la première puce de Meta basée sur une architecture de 2 nm, capable de couvrir à la fois l’entraînement de modèles haut de gamme et l’inférence en temps réel, pour remplacer Nvidia dans ses clusters d’entraînement.
Mais ce projet de puces d’entraînement a été abandonné.
Meta a quand même progressé sur l’inférence : la puce MTIA v3 « Iris » est déjà déployée à grande échelle dans ses data centers, notamment pour Facebook Reels et Instagram, avec une réduction de 40 à 44 % des coûts globaux. Mais l’inférence et l’entraînement, ce sont deux mondes différents. L’inférence consiste à faire fonctionner un modèle, l’entraînement à le créer. Meta peut faire ses propres puces d’inférence, mais pas celles capables de rivaliser avec Nvidia pour l’entraînement.
Ce n’est pas la première fois. En 2022, Meta avait tenté de développer ses propres puces d’inférence, mais avait abandonné après un échec en déploiement à petite échelle, préférant acheter Nvidia en masse.
L’échec de ses puces maison a accéléré la vague d’achats externes.
En janvier 2026, Meta a annoncé un budget de capital de 1150 à 1350 milliards de dollars pour l’année, soit presque le double des 722 milliards de l’année précédente. La majorité de cette somme sera consacrée aux puces.
En seulement 10 jours, trois gros contrats ont été signés :
Le 17 février, Meta a signé un partenariat stratégique pluriannuel avec Nvidia. Meta déploiera « des millions » de GPU Blackwell et de la nouvelle génération Vera Rubin, ainsi que des CPU Grace. Selon les analystes, la transaction pourrait atteindre plusieurs centaines de milliards de dollars, faisant de Meta le premier client mondial à déployer massivement les CPU Grace de Nvidia.
Le 24 février, Meta a signé un contrat de plusieurs milliards de dollars avec AMD, d’une valeur estimée entre 600 et 1000 milliards. Meta achètera les GPU MI450 et les CPU EPYC de 6e génération. En échange, AMD a émis des warrants pour 160 millions d’actions ordinaires, représentant environ 10 % de la société, à 0,01 dollar par action, avec une attribution par étapes selon les jalons de livraison.
Le 26 février, selon The Information, Meta a signé un accord de plusieurs milliards avec Google, louant ses TPU pour entraîner et faire fonctionner ses futurs grands modèles linguistiques, avec une discussion en cours pour acheter directement des TPU à partir de 2027 pour déployer dans ses propres data centers.
Une seule société de réseaux sociaux, en 10 jours, a passé des commandes potentielles dépassant 1000 milliards de dollars auprès de trois fournisseurs de puces.
Ce n’est pas une diversification stratégique. C’est une frénésie d’achats.
Pourquoi Meta est-elle si pressée ?
Premièrement, l’autonomie sur ses propres puces n’est plus envisageable. Le projet de puces d’entraînement les plus avancées a été abandonné, ce qui signifie que Meta devra désormais dépendre de l’extérieur pour ses besoins en IA. Les puces d’inférence MTIA peuvent gérer des tâches comme la recommandation, mais pour entraîner des modèles de pointe comme Avocado, il faut du matériel équivalent à Nvidia ou supérieur.
Deuxièmement, la concurrence n’attendra pas. OpenAI a déjà mobilisé des ressources massives de Microsoft, SoftBank, et du fonds souverain d’Abu Dhabi. Anthropic a sécurisé 1 million de TPU et de Trainium auprès de Google et Amazon. Gemini 3 de Google a été entièrement entraîné sur TPU. Si Meta ne peut pas obtenir suffisamment de puissance de calcul, elle risque de ne pas pouvoir participer à la course.
Troisièmement, et c’est peut-être la plus fondamentale, Zuckerberg doit compenser le manque de R&D par sa « puissance d’achat ». La débâcle de Llama 4, la fuite des talents clés, l’échec de ses puces maison, tout cela fragilise la narration IA de Meta face à Wall Street. Signer des contrats avec Nvidia, AMD, Google envoie au moins un signal : « Nous avons l’argent, nous achetons, nous n’abandonnons pas. »
La stratégie actuelle de Meta consiste à compenser l’incapacité à maîtriser le logiciel par l’achat de matériel, et à acheter des talents pour compenser la fuite. Mais la compétition IA ne se gagne pas uniquement avec des chèques. La puissance de calcul est une condition nécessaire, mais pas suffisante. Sans une équipe de modèles de haut niveau et une vision technologique claire, même les meilleurs chips ne sont que des stocks coûteux dans un entrepôt.
En revenant sur les trois contrats de février, un détail intéressant est souvent ignoré.
Meta achète chez Nvidia des GPU Blackwell actuels et futurs Vera Rubin ; chez AMD, des MI450 et des futurs MI455X ; chez Google, des TPU Ironwood actuels, avec un projet d’achat direct prévu pour l’année prochaine.
Trois fournisseurs, trois architectures matérielles et trois écosystèmes logiciels totalement différents.
Cela signifie que Meta doit jongler entre CUDA de Nvidia, ROCm d’AMD et XLA/JAX de Google. La stratégie multi-fournisseurs permet de réduire les risques de rupture d’approvisionnement et de faire baisser les coûts, mais augmente exponentiellement la complexité technique.
C’est là la faiblesse majeure de Meta : faire fonctionner un modèle de plusieurs centaines de milliards de paramètres sur ces trois plateformes différentes nécessite plus qu’un ingénieur maîtrisant CUDA. Il faut un architecte capable de construire un cadre d’entraînement multiplateforme from scratch.
Il n’y en a probablement pas plus de 100 dans le monde. Pang Ruiming en fait partie.
Dépenser 1000 milliards pour acquérir la configuration matérielle la plus complexe au monde, tout en perdant la tête pensante capable de la faire fonctionner, c’est la scène la plus surréaliste de cette mise en jeu de Zuckerberg.
En élargissant la perspective, la stratégie de Zuckerberg sur 18 mois dans l’IA ressemble étrangement à celle qu’il avait adoptée pour le métavers :
voir la tendance, investir massivement, recruter à tout va, rencontrer des échecs, changer de cap, puis réinvestir lourdement.
De 2021 à 2023, c’était le métavers, qui a coûté des milliards chaque année, avec une chute du cours de l’action de 380 à 88 dollars. De 2024 à 2026, c’est l’IA, avec des investissements sans limite, des restructurations fréquentes, et une narration de « confiance en moi, j’ai une vision ».
Ce qui diffère, c’est que cette fois, la vague IA paraît beaucoup plus concrète que celle du métavers. Meta a de l’argent à brûler, ses revenus publicitaires génèrent un cash-flow abondant, avec 59,9 milliards de dollars au dernier trimestre, en hausse de 24 %.
Mais le problème, c’est que l’argent ne peut pas acheter des talents, ni faire rester ceux qui comptent.
Pang Ruiming a choisi OpenAI, Russ Salakhutdinov a choisi de partir, LeCun a lancé sa startup.
Le pari de Zuckerberg, c’est qu’en achetant suffisamment de puces, en construisant de grands data centers, et en dépensant beaucoup, il pourra toujours trouver ou former des talents pour utiliser ces ressources.
Ce pari peut réussir. Meta reste l’une des entreprises technologiques les plus riches du monde, avec plus de 100 milliards de dollars de cash-flow opérationnel, un véritable rempart. De OpenAI à Anthropic, de Google à ses concurrents, Meta continue de recruter. Selon Quantum, près de 40 % des 44 membres de son équipe IA avancée viennent d’OpenAI.
Mais la brutalité de la compétition IA, c’est que la puissance de calcul, la liste des talents, et la performance des modèles sont publiques. La falsification du benchmark de Llama 4 a prouvé qu’on ne peut pas simplement s’appuyer sur PPT et relations publiques pour garder une avance.
Au final, le seul vrai critère, c’est la qualité de votre modèle.
La course aux armements IA, en 2026, voit une hiérarchie se dessiner :
Au sommet, OpenAI et Google. OpenAI possède les modèles les plus puissants, la plus grande base d’utilisateurs, et la levée de fonds la plus agressive. Google dispose d’une intégration complète : ses puces maison, ses modèles, son infrastructure cloud. Anthropic suit de près, grâce à Claude, et à la double puissance de Google et Amazon.
Meta ? Elle a dépensé le plus, signé le plus de contrats, et restructuré le plus, mais n’a pas encore présenté de modèle de pointe convaincant.
L’histoire de Meta dans l’IA ressemble un peu à celle de Yahoo en 2005 : une société riche, qui achète et investit à tout va, mais incapable de produire un moteur de recherche comparable à Google. L’argent ne fait pas tout. Zuckerberg doit se demander ce qu’il veut vraiment faire en IA, plutôt que de suivre la mode.
Ce n’est pas encore le moment de tirer sa révérence. Avec 3,58 milliards d’utilisateurs actifs par mois, un chiffre d’affaires trimestriel de 59,9 milliards, et le plus grand ensemble de données sociales au monde, Meta possède des actifs difficiles à copier.
Si le modèle Avocado, prévu pour 2026, parvient à revenir dans le top 3, tout cet argent et ces restructurations seront alors justifiés comme une « stratégie de redressement ». Mais si cela échoue à nouveau, ces 135 milliards de dollars ne seront qu’un amas de silicium chauffant dans des entrepôts.
Car, dans la course à l’armement IA, Silicon Valley n’a jamais manqué de grands acheteurs. Ce qui manque, c’est de savoir comment transformer cette puissance en avenir.