DeepSeek lance une version d’aperçu open source V4, avec une note technique de 3206 dépassant GPT-5.4

DeepSeek V4開源預覽版

DeepSeek a officiellement lancé la série d’aperçu V4 le 24 avril, avec un code source ouvert sous licence MIT ; les poids du modèle ont été mis en ligne sur Hugging Face et ModelScope. D’après le rapport technique de DeepSeek V4, V4-Pro-Max (mode de puissance de raisonnement maximale) obtient 3206 points sur le benchmark Codeforces, dépassant GPT-5.4.

Spécifications d’architecture de deux modèles MoE

D’après le rapport technique de DeepSeek V4, la série V4 comprend deux modèles à experts spécialisés (MoE) :

V4-Pro : 1,6T de paramètres au total, 49B d’activation par token, prise en charge d’un contexte de 1M tokens

V4-Flash : 284B de paramètres au total, 13B d’activation par token, prise en charge d’un contexte de 1M tokens

D’après le rapport technique, en contexte de 1M tokens, l’inférence FLOPs par token de V4-Pro n’est que 27% de celui de V3.2, le cache KV passe à seulement 10% de celui de V3.2. Cela est principalement dû à la mise à niveau d’architecture de l’attention mixte (CSA — attention clairsemée compressée + HCA — attention fortement compressée). La taille des données de pré-entraînement dépasse 32T tokens ; l’optimiseur d’entraînement a été mis à jour vers Muon.

Méthodologie de post-entraînement : la distillation en ligne remplace l’apprentissage par renforcement mixte

D’après le rapport technique de DeepSeek V4, la mise à jour centrale du post-entraînement de V4 réside dans le remplacement complet du stade d’apprentissage par renforcement mixte (mixed RL) de V3.2 par une distillation de politique en ligne (On-Policy Distillation, OPD). Le nouveau processus se divise en deux étapes : d’abord, entraîner séparément des experts spécialisés (SFT + apprentissage par renforcement GRPO) pour des domaines tels que les mathématiques, le code, les agents et le suivi d’instructions ; ensuite, distiller les capacités d’une dizaine d’experts vers un modèle unifié à l’aide de multiples enseignants OPD, en alignant les logits pour éviter les conflits de capacités courants dans les méthodes traditionnelles.

Le rapport introduit également un modèle génératif de récompense (Generative Reward Model, GRM) : pour les tâches difficiles à valider par des règles, l’entraînement est effectué avec une petite quantité de données d’annotation humaine diversifiées, afin que le modèle assure à la fois des fonctions de génération et d’évaluation.

Résultats des tests de référence : la programmation en tête, il reste un écart pour le raisonnement des connaissances

D’après le rapport technique de DeepSeek V4, les résultats de comparaison de V4-Pro-Max avec Opus 4.6 Max, GPT-5.4 xHigh et Gemini 3.1 Pro High (sans inclure le GPT-5.5 et Opus 4.7 publiés récemment) :

Codeforces : 3206 (GPT-5.4 : 3168 / Gemini 3.1 Pro : 3052) → meilleur score de toute la compétition

LiveCodeBench : 93.5 → meilleur score de toute la compétition

SWE Verified : 80.6, en retard sur Opus 4.6 à 80.8, soit 0,2 point de pourcentage

GPQA Diamond : 90.1, en retard sur Gemini 3.1 Pro à 94.3

SimpleQA-Verified : 57.9, en retard sur Gemini 3.1 Pro à 75.6

HLE : 37.7, en retard sur Gemini 3.1 Pro à 44.4

Le rapport technique indique également que les comparaisons ci-dessus ne tiennent pas compte du GPT-5.5 et d’Opus 4.7 récemment publiés ; l’écart entre V4 et les modèles fermés de dernière génération reste à confirmer par des évaluations indépendantes.

Questions fréquentes

Quelles sont les conditions de licence open source de l’aperçu DeepSeek V4, et où les obtenir ?

D’après l’annonce officielle du 24 avril de DeepSeek, la série V4 est open source sous licence MIT ; les poids du modèle ont été mis en ligne sur Hugging Face et ModelScope, utilisables pour des usages commerciaux et universitaires.

Quelle différence y a-t-il entre l’échelle de paramètres de DeepSeek V4-Pro et V4-Flash ?

D’après le rapport technique de DeepSeek V4, V4-Pro a 1,6T de paramètres au total, avec 49B d’activation par token ; V4-Flash a 284B de paramètres au total, avec 13B d’activation par token ; les deux modèles prennent en charge un contexte de 1M tokens.

Quels sont les résultats de comparaison des performances de DeepSeek V4-Pro-Max avec GPT-5.4 et Gemini 3.1 Pro ?

D’après le rapport technique de DeepSeek V4, V4-Pro-Max dépasse GPT-5.4 et Gemini 3.1 Pro sur deux benchmarks : Codeforces (3206 points) et LiveCodeBench (93.5), mais reste en retrait sur les benchmarks à forte densité de connaissances (GPQA Diamond, SimpleQA-Verified, HLE) par rapport à Gemini 3.1 Pro ; le groupe de comparaison ne comprend pas GPT-5.5 et Opus 4.7.

Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.

Articles similaires

Des législateurs du Colorado proposent un remplacement de loi sur l’IA pour répondre aux inquiétudes du secteur

Des législateurs du Colorado s’emploient à abroger et à remplacer la loi de 2024 sur l’intelligence artificielle de l’État, SB24-205, par de nouvelles règles qui réduisent le champ d’application de la réglementation de l’IA tout en répondant aux inquiétudes de l’industrie concernant les charges de conformité. La nouvelle proposition, SB26-189, viserait à réglementer les systèmes d’IA utilisés dans

CryptoFrontierIl y a 3h

R0AR progresse vers la manche finale du pitchfest Consensus 2026, manquant de peu le top 20

D’après MetaversePost, R0AR est passé au tour de sélection final du CoinDesk Consensus 2026 PitchFest le 4 mai, manquant de peu le top 20 des startups sélectionnées pour des présentations en direct. L’innovateur Web3 et IA a été évalué aux côtés d’autres startups à fort potentiel du monde entier lors de l’un des événements majeurs de l’industrie

GateNewsIl y a 6h

Musk réclame un règlement de 150 milliards de dollars avec OpenAI avant le procès, les discussions échouent

Selon un acte judiciaire, Elon Musk a contacté le président d’OpenAI, Greg Brockman, le 26 avril, deux jours avant le début de leur procès devant la cour fédérale d’Oakland, afin d’explorer un règlement. Lorsque Brockman a suggéré que les deux parties abandonnent leurs demandes, Musk a répondu avec des menaces, en disant à Brockman : « D’ici la fin

GateNewsIl y a 6h

Cursor accepte l’offre d’acquisition de SpaceX de 60 milliards de dollars, mais ne s’associera pas à xAI sur des modèles de codage

Selon The Information, Cursor a accepté une offre d’acquisition conditionnelle de 60 milliards de dollars de la part de SpaceX, bien que l’opération n’ait pas encore été finalisée. La société n’a actuellement aucun projet de collaborer avec l’unité IA de SpaceX, xAI, pour développer des modèles de codage. En revanche, Cursor se concentre sur l’optimisation de celui-ci

GateNewsIl y a 7h

Haun Ventures clôture un fonds de 1 milliard de dollars le 4 mai, répartit le capital entre des investissements crypto à un stade précoce et à un stade avancé

D’après Bloomberg, Haun Ventures a achevé un tour de levée de fonds de 1 milliard de dollars le 4 mai, dont 500 millions de dollars alloués aux investissements en phase initiale et 500 millions de dollars aux investissements en phase avancée. Le fonds déploiera des capitaux au cours des deux à trois prochaines années, en ciblant les startups de cryptomonnaies et de blockchain tout en se développant

GateNewsIl y a 7h

OpenAI lève $4 milliard pour une coentreprise de déploiement, évaluée à 10 milliards de dollars

D'après BlockBeats, le 4 mai, OpenAI a levé plus de $4 milliard pour créer une nouvelle coentreprise axée sur l'aide aux entreprises afin qu'elles adoptent son logiciel d'intelligence artificielle. Cette coentreprise, appelée The Deployment Company, est soutenue par 19 investisseurs, dont TPG Inc., Brookfield Asset Management,

GateNewsIl y a 8h
Commentaire
0/400
Aucun commentaire