Les créateurs d'IA envoient des signaux d'alerte—certains prennent leurs distances

Decrypt

En résumé

  • Au moins 12 employés de xAI, dont les co-fondateurs Jimmy Ba et Yuhuai « Tony » Wu, ont démissionné.
  • Anthropic a déclaré que les tests de leur modèle Claude Opus 4.6 ont révélé un comportement trompeur et une assistance limitée liée aux armes chimiques.
  • Ba a averti publiquement que des systèmes capables d’auto-amélioration récursive pourraient émerger d’ici un an.

Plus d’une douzaine de chercheurs seniors ont quitté le laboratoire d’intelligence artificielle d’Elon Musk, xAI, ce mois-ci, dans le cadre d’une vague plus large de démissions, de divulgations sur la sécurité et d’avertissements publics exceptionnellement sévères qui perturbent même les figures expérimentées du secteur de l’IA. Au moins 12 employés de xAI sont partis entre le 3 et le 11 février, dont les co-fondateurs Jimmy Ba et Yuhuai « Tony » Wu. Plusieurs employés démissionnaires ont remercié publiquement Musk pour l’opportunité après des cycles de développement intensifs, tandis que d’autres ont indiqué qu’ils partaient pour lancer de nouvelles ventures ou se retirer complètement. Wu, qui dirigeait le raisonnement et rapportait directement à Musk, a déclaré que la culture de l’entreprise « restera avec moi pour toujours ».

 Ces départs coïncident avec de nouvelles révélations d’Anthropic selon lesquelles leurs modèles les plus avancés auraient adopté un comportement trompeur, dissimulé leur raisonnement et, lors de tests contrôlés, fourni ce qu’une entreprise a décrit comme une « assistance réelle mais mineure » pour le développement d’armes chimiques et d’autres crimes graves. Au même moment, Ba a averti publiquement que des « boucles d’auto-amélioration récursive » — systèmes capables de se redessiner et de s’améliorer eux-mêmes sans intervention humaine — pourraient émerger d’ici un an, un scénario longtemps confiné aux débats théoriques sur l’intelligence artificielle générale. Pris ensemble, ces départs et ces divulgations indiquent un changement de ton parmi les personnes les plus proches du développement de l’IA de pointe, avec une inquiétude de plus en plus exprimée non pas par des critiques extérieurs ou des régulateurs, mais par les ingénieurs et chercheurs qui construisent ces systèmes eux-mêmes.

D’autres départs durant cette période incluent Hang Gao, qui travaillait sur Grok Imagine ; Chan Li, co-fondateur de l’unité logicielle Macrohard de xAI ; et Chace Lee. Vahid Kazemi, qui a quitté « il y a quelques semaines », a offert une évaluation plus directe, écrivant mercredi sur X que « tous les laboratoires d’IA construisent exactement la même chose ».

Dernier jour chez xAI.

La mission de xAI est de pousser l’humanité vers le haut de l’échelle technologique de Kardashev. Je suis reconnaissant d’avoir aidé à co-fonder dès le début. Et un immense merci à @elonmusk de nous avoir réunis dans cette aventure incroyable. Je suis si fier de ce que l’équipe xAI a accompli et je resterai proche…

— Jimmy Ba (@jimmybajimmyba) 11 février 2026

Pourquoi partir ? Certains pensent que les employés liquident leurs actions SpaceX avant l’introduction en bourse, en prévision d’une fusion avec xAI. L’accord valorise SpaceX à 1 000 milliards de dollars et xAI à 250 milliards, en convertissant les actions xAI en actions SpaceX avant une IPO qui pourrait valoriser l’entité combinée à 1,25 trillion de dollars. D’autres évoquent un choc culturel. Benjamin De Kraker, ancien employé de xAI, a écrit dans un post du 3 février sur X que « beaucoup de personnes de xAI vont subir un choc culturel » en passant de la « hiérarchie plate » de xAI à l’approche structurée de SpaceX. Ces démissions ont également déclenché une vague de commentaires sur les réseaux sociaux, y compris des posts satiriques parodiant les annonces de départ.

Signes d’alerte Mais l’exode chez xAI n’est que la fissure la plus visible. Hier, Anthropic a publié un rapport sur le risque de sabotage pour Claude Opus 4.6 qui ressemble à un cauchemar pour les pessimistes. Lors de tests en équipe rouge, les chercheurs ont découvert que le modèle pouvait aider à obtenir des connaissances sensibles sur les armes chimiques, poursuivre des objectifs non intentionnels et ajuster son comportement en contexte d’évaluation. Bien que le modèle reste sous des mesures de sécurité ASL-3, Anthropic a préventivement appliqué des mesures renforcées ASL-4, ce qui a suscité des signaux d’alarme chez certains passionnés. Le timing était radical. Plus tôt cette semaine, le responsable de l’équipe de recherche sur les mesures de sécurité d’Anthropic, Mrinank Sharma, a démissionné avec une lettre cryptique avertissant que « le monde est en péril ». Il a affirmé qu’il avait « à plusieurs reprises constaté à quel point il est difficile de laisser nos valeurs gouverner nos actions » au sein de l’organisation. Il a soudainement quitté pour étudier la poésie en Angleterre. Le même jour, Ba et Wu ont quitté xAI, la chercheuse d’OpenAI Zoë Hitzig a démissionné et publié une tribune acerbe dans le New York Times sur les publicités de test de ChatGPT. « OpenAI détient le dossier le plus détaillé des pensées humaines privées jamais rassemblé », a-t-elle écrit. « Pouvons-nous leur faire confiance pour résister aux forces qui les poussent à en abuser ? »

Elle a averti qu’OpenAI « construit un moteur économique qui crée de fortes incitations à contourner ses propres règles », faisant écho aux avertissements de Ba. Il y a aussi une pression réglementaire. Le projet Midas, un observatoire de l’IA, a accusé OpenAI d’avoir violé la loi californienne SB 53 sur la sécurité avec GPT-5.3-Codex. Le modèle a atteint le seuil de « risque élevé » en cybersécurité d’OpenAI mais a été livré sans les mesures de sécurité requises. OpenAI affirme que la formulation était « ambiguë ». Faut-il paniquer ? La récente série d’avertissements et de démissions a créé un sentiment accru d’alarme dans certaines parties de la communauté IA, notamment sur les réseaux sociaux, où les spéculations ont souvent dépassé les faits confirmés. Tous les signaux ne pointent pas dans la même direction. Les départs chez xAI sont réels, mais pourraient être influencés par des facteurs d’entreprise, notamment l’intégration en cours avec SpaceX, plutôt que par une rupture technologique imminente. Les préoccupations de sécurité sont également légitimes, même si des entreprises comme Anthropic ont longtemps adopté une approche prudente en matière de divulgation des risques, en signalant souvent les dangers potentiels plus tôt et de manière plus visible que leurs pairs. La surveillance réglementaire augmente, mais n’a pas encore abouti à des actions contraignantes qui limiteraient réellement le développement. Ce qui est plus difficile à ignorer, c’est le changement de ton parmi les ingénieurs et chercheurs proches des systèmes de pointe.

Les avertissements publics sur l’auto-amélioration récursive, longtemps considérée comme un risque théorique, sont désormais exprimés avec des échéances à court terme. Si ces évaluations s’avèrent exactes, l’année à venir pourrait marquer un tournant important pour le domaine.

Voir l'original
Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.
Commentaire
0/400
Aucun commentaire