#GateSquareDaily #Deepseek #AIPriceWar #AIAgents


La guerre des prix de l'IA s'intensifie
DeepSeek’s V4 baisse les prix du marché, et les effets d'entraînement se font déjà sentir
Un nouveau front vient de s'ouvrir dans la course à l'IA, et il ne concerne pas les benchmarks. Il s'agit du prix.
Le 24 avril 2026, DeepSeek, basé à Hangzhou, a publié des versions de prévisualisation de sa famille de modèles V4 : V4-Pro et V4-Flash. Les deux sont à poids ouvert, sous licence MIT, et supportent une fenêtre de contexte de 1 million de tokens. La grande nouvelle, cependant, est le coût.
1. À quel point la réduction est-elle agressive ?
La tarification de l'API de DeepSeek redéfinit le seuil pour les modèles de classe frontier :
• V4-Flash : 0,14 $ par million de tokens d'entrée, 0,28 $ par million de tokens de sortie • V4-Pro : 1,74 $ par million de tokens d'entrée, 3,48 $ par million de tokens de sortie
Comparez cela aux leaders actuels aux États-Unis : GPT-5.5 est tarifé à $5 d'entrée / $30 de sortie par million de tokens, tandis que Claude Opus 4.6 fonctionne à $25 par million de tokens de sortie. Gemini 3.1 Pro se situe à $2 d'entrée / $12 de sortie.
En termes simples : V4-Pro coûte environ un septième de Claude Opus 4.6 et presque un neuvième de GPT-5.5 en tokens de sortie. V4-Flash est 12,4 fois moins cher que Pro tout en étant seulement 1,6 point en dessous sur SWE-bench Verified. Pour les développeurs, c’est la différence entre un budget IA de 4 mois qui dure 7 ans à niveau d’utilisation identique.
L'entreprise a déclaré que V4-Pro « égalise plusieurs modèles leaders » et améliore les capacités des agents pour les tâches multi-étapes. Des tests indépendants placent V4-Pro à 80,6 % sur SWE-bench Verified, à 0,2 point près de Claude Opus 4.6. Il domine sur LiveCodeBench avec 93,5 %.
2. Pourquoi cela importe : trois points de pression
L’adoption pourrait s’accélérer
À 0,28 $ par million de tokens de sortie, V4-Flash rend possibles des cas d’utilisation à volume élevé : traitement de documents, analyse de bases de code, boucles d’agents. Les startups qui étaient exclues du raisonnement de classe GPT-5 peuvent désormais exécuter des charges de travail en production pour 1/10e du coût. La fenêtre de contexte de 1 million de tokens signifie que des référentiels de code entiers ou des dépôts juridiques tiennent dans une seule requête.
Les rivaux subissent une compression de marge
Les laboratoires occidentaux augmentent déjà leurs prix et limitent l’utilisation pour gérer la demande. La démarche de DeepSeek impose un choix : réduire les prix et comprimer les marges, ou céder la part de marché des développeurs. L’écart de prix n’est pas de 10 % ou 20 % — il est de 7 à 9 fois sur la sortie. Pour les entreprises construisant des flux de travail agentiques, le coût par token devient une ligne budgétaire, et non une erreur d’arrondi.
Les récits sur l’IA gagnent en carburant, y compris dans l’IA crypto
Une inférence bon marché modifie l’économie des agents IA. Si vous pouvez faire fonctionner un modèle de 1,6 T de paramètres pour 3,48 $ par million de tokens de sortie, les agents en chaîne, les réseaux d’inférence décentralisés et les projets de tokens IA ont soudainement une voie vers des coûts unitaires durables. V4 est sous licence MIT et à poids ouvert, ce qui signifie que quiconque possède des GPU peut l’auto-héberger. Cela élimine la dépendance à un fournisseur et s’aligne avec la thèse de la composabilité dans la crypto.
Le matériel fait aussi partie de l’histoire. Huawei a annoncé le support complet de V4 sur ses puces Ascend 950 le même jour. DeepSeek a validé le modèle sur des GPU Nvidia et des NPU Huawei Ascend. La société a indiqué que les prix Pro pourraient chuter fortement une fois que les supernœuds Ascend 950 seront déployés à grande échelle dans la seconde moitié de 2026. Une pile IA domestique chinoise — modèles plus puces — réduit encore les coûts et diminue la dépendance au matériel américain.
3. Les compromis
V4-Pro n’est pas le meilleur dans tous les domaines. Sur SWE-bench Pro, qui mesure l’ingénierie logicielle en conditions réelles, Opus 4.7 domine à 64,3 % contre 55,4 % pour V4-Pro. Sur les tâches de raisonnement approfondi, GPT-5.5 conserve un avantage. DeepSeek reconnaît que « les contraintes en capacité de calcul haut de gamme » limitent le débit de Pro au lancement.
Et il y a le contexte réglementaire : le département d’État américain a averti mondialement à propos de la distillation présumée de modèles IA américains par la Chine, un jour avant le lancement de V4. OpenAI et Anthropic ont accusé DeepSeek de distiller leurs modèles. DeepSeek n’a pas répondu à ces accusations.
4. Ce qui se passe ensuite
1. Pilotes d’entreprise : Attendez-vous à ce que les CFO recalculent les modèles de ROI. Si V4-Pro offre 95 % de la capacité pour 10 % du coût, « suffisant » devient la norme pour de nombreuses tâches. 2. Dynamique open source : Avec 1,6 T de paramètres, une licence MIT et des poids Hugging Face, V4 devient le plus grand modèle open disponible. La fine-tuning et les déploiements privés deviennent plus faciles. 3. Diversification matérielle : Le support complet d’Ascend indique que la pile IA chinoise mûrit. Si Huawei livre en volume, les développeurs chinois pourront construire sans Nvidia. 4. Réaction tarifaire : Surveillez OpenAI, Anthropic et Google. Maintenir le prix alors qu’un modèle ouvert atteint 80,6 % sur SWE-bench à 1/9e du coût n’est pas un équilibre stable.
Il s’agit d’une guerre des prix, mais aussi d’un changement de stratégie. DeepSeek V4 ne prétend pas battre GPT-5.5 ou Claude Opus 4.7 sur tous les benchmarks. Elle prétend être suffisamment proche, ouverte, et radicalement moins chère. Pendant deux ans, l’hypothèse était que les modèles frontier nécessitent des budgets de frontier. V4 brise ce lien.
Si l’adoption suit le prix, alors la demande en inférence, l’utilisation des agents, et les applications IA intégrées — y compris les tokens IA crypto — s’étendront. Les concurrents devront répondre sur le coût, pas seulement sur la capacité. Et le récit selon lequel l’IA avancée doit fonctionner sur des puces américaines vient de recevoir un contre-exemple.
La guerre de l’IA ne concerne plus seulement qui a le modèle le plus intelligent. Il s’agit de qui rend l’intelligence abordable.
DEEPSEEK-3,19%
Voir l'original
discovery
#GateSquareDaily #Deepseek #AIPriceWar #AIAgents
La guerre des prix de l'IA s'intensifie
DeepSeek’s V4 baisse les prix du marché, et les effets d'entraînement se font déjà sentir

Un nouveau front vient de s’ouvrir dans la course à l’IA, et il ne s’agit pas de benchmarks. Il s’agit du prix.

Le 24 avril 2026, DeepSeek, basé à Hangzhou, a publié des versions de prévisualisation de sa famille de modèles V4 : V4-Pro et V4-Flash. Les deux sont à poids ouvert, sous licence MIT, et supportent une fenêtre de contexte de 1 million de tokens. La grande nouveauté, cependant, est le coût.

1. À quel point la réduction est-elle agressive ?

La tarification de l’API de DeepSeek redéfinit le seuil pour les modèles de classe frontier :
• V4-Flash : 0,14 $ par million de tokens d’entrée, 0,28 $ par million de tokens de sortie • V4-Pro : 1,74 $ par million de tokens d’entrée, 3,48 $ par million de tokens de sortie
Comparez cela aux leaders actuels aux États-Unis : GPT-5.5 est tarifé à $5 de tokens d’entrée / $30 de tokens de sortie par million, tandis que Claude Opus 4.6 fonctionne à $25 par million de tokens de sortie. Gemini 3.1 Pro se situe à $2 de tokens d’entrée / $12 de tokens de sortie.

En termes simples : V4-Pro coûte environ un septième de Claude Opus 4.6 et presque un neuvième de GPT-5.5 en tokens de sortie. V4-Flash est 12,4 fois moins cher que Pro tout en étant seulement 1,6 point en dessous sur SWE-bench Verified. Pour les développeurs, c’est la différence entre un budget IA de 4 mois qui dure 7 ans au même niveau d’utilisation.

L’entreprise a déclaré que V4-Pro « correspond à plusieurs modèles leaders » dans plusieurs domaines et améliore les capacités des agents pour les tâches multi-étapes. Des tests indépendants placent V4-Pro à 80,6 % sur SWE-bench Verified, à 0,2 point de Claude Opus 4.6. Il domine sur LiveCodeBench avec 93,5 %.

2. Pourquoi cela importe : trois points de pression

L’adoption pourrait s’accélérer
À 0,28 $ par million de tokens de sortie, V4-Flash rend possibles des cas d’utilisation à volume élevé : traitement de documents, analyse de bases de code, boucles d’agents. Les startups qui étaient exclues du raisonnement de classe GPT-5 peuvent désormais exécuter des charges de travail en production pour un dixième du coût. La fenêtre de contexte de 1 million de tokens signifie que des référentiels de code entiers ou des dépôts juridiques tiennent dans une seule requête.

Les concurrents subissent une compression de marge
Les laboratoires occidentaux augmentent déjà leurs prix et limitent l’utilisation pour gérer la demande. La démarche de DeepSeek oblige à faire un choix : réduire les prix et comprimer les marges, ou céder la part de marché des développeurs. L’écart de prix n’est pas de 10 % ou 20 % — il est de 7 à 9 fois sur la sortie. Pour les entreprises construisant des flux de travail agentiques, le coût par token devient une ligne budgétaire, et non une erreur d’arrondi.

Les récits sur l’IA gagnent en carburant, y compris dans le domaine de l’IA crypto
Une inférence bon marché modifie l’économie des agents IA. Si vous pouvez faire fonctionner un modèle de 1,6 T de paramètres pour 3,48 $ par million de tokens de sortie, les agents en chaîne, les réseaux d’inférence décentralisés et les projets de tokens IA ont soudainement une voie vers des coûts unitaires durables. V4 est sous licence MIT et à poids ouvert, ce qui signifie que quiconque possède des GPU peut l’auto-héberger. Cela élimine la dépendance à un fournisseur et s’aligne avec la thèse de la composabilité dans la crypto.

Le matériel fait aussi partie de l’histoire. Huawei a annoncé le support complet de V4 sur ses puces Ascend 950 le même jour. DeepSeek a validé le modèle sur des GPU Nvidia et des NPU Huawei Ascend. La société a indiqué que les prix Pro pourraient chuter fortement une fois que les supernœuds Ascend 950 seront déployés à grande échelle dans la seconde moitié de 2026. Une pile IA domestique chinoise — modèles plus puces — réduit encore les coûts et diminue la dépendance au matériel américain.

3. Les compromis
V4-Pro n’est pas le meilleur dans tous les domaines. Sur SWE-bench Pro, qui mesure la capacité d’ingénierie logicielle dans le monde réel, Opus 4.7 domine à 64,3 % contre 55,4 % pour V4-Pro. Sur des tâches de raisonnement approfondi, GPT-5.5 conserve un avantage. DeepSeek reconnaît que « les contraintes en capacité de calcul haut de gamme » limitent le débit de Pro au lancement.

Et il y a le contexte réglementaire : le département d’État américain a mis en garde le monde entier contre la distillation présumée de modèles IA américains par la Chine, un jour avant le lancement de V4. OpenAI et Anthropic ont accusé DeepSeek de distiller leurs modèles. DeepSeek n’a pas répondu à ces accusations.

4. Ce qui se passe ensuite
1. Pilotes d’entreprise : Attendez-vous à ce que les CFO relancent les modèles de ROI. Si V4-Pro offre 95 % de la capacité pour 10 % du coût, « suffisant » devient la norme pour de nombreuses tâches. 2. Dynamique open source : Avec 1,6 T de paramètres, une licence MIT et des poids Hugging Face, V4 devient le plus grand modèle open disponible. La fine-tuning et les déploiements privés deviennent plus faciles. 3. Diversification du matériel : Le support complet d’Ascend indique que la pile IA chinoise mûrit. Si Huawei livre en volume, les développeurs chinois pourront construire sans Nvidia. 4. Réponse tarifaire : Surveillez OpenAI, Anthropic et Google. Maintenir le prix alors qu’un modèle ouvert atteint 80,6 % sur SWE-bench à 1/9 du coût n’est pas un équilibre stable.

C’est une guerre des prix, mais c’est aussi un changement de stratégie. DeepSeek V4 ne prétend pas battre GPT-5.5 ou Claude Opus 4.7 sur tous les benchmarks. Il prétend être suffisamment proche, ouvert, et radicalement moins cher. Pendant deux ans, l’hypothèse était que les modèles frontier nécessitent des budgets frontier. V4 brise ce lien.

Si l’adoption suit le prix, alors la demande d’inférence, l’utilisation des agents, et les applications intégrées à l’IA — y compris les tokens IA crypto — s’étendront. Les concurrents devront répondre sur le coût, pas seulement sur la capacité. Et le récit selon lequel une IA avancée doit fonctionner sur des puces américaines vient de recevoir un contre-exemple.

La guerre de l’IA n’est plus seulement une question de qui a le modèle le plus intelligent. Il s’agit de qui rend l’intelligence abordable.
repost-content-media
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • 3
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
discovery
· Il y a 1h
2026 GOGOGO 👊
Répondre0
discovery
· Il y a 1h
Vers la Lune 🌕
Voir l'originalRépondre0
discovery
· Il y a 1h
Joyeux anniversaire ❤️❤️🥰
Voir l'originalRépondre0
  • Épingler