Message de Gate News, 24 avril — DeepSeek V4-Pro et DeepSeek V4-Flash ont été officiellement publiés et open-sourcés le 24 avril, avec une longueur de traitement du contexte considérablement étendue de 128K à 1M, soit une augmentation de capacité d’environ 10 fois. Huawei Computing a annoncé que ses produits de supernœud Ascend prennent entièrement en charge les modèles de la série DeepSeek V4 grâce à une étroite collaboration entre les technologies de puce et de modèle.
Ascend 950 atteint un déploiement d’inférence des modèles DeepSeek V4 à haut débit et faible latence grâce à des techniques de noyaux fusionnés et de parallélisme multi-stream permettant de réduire la surcharge liée aux calculs d’Attention et aux accès mémoire. Pour DeepSeek V4-Pro avec une entrée de 8K, Ascend 950 atteint environ 20ms TPOT avec un débit Decode de 4,700 TPS sur une seule carte ; pour DeepSeek V4-Flash avec une entrée <8K>, il atteint environ 10ms TPOT avec un débit de 1,600 TPS. La série de supernœuds Ascend A3 atteint également une compatibilité totale, avec des implémentations de référence d’entraînement fournies pour un fine-tuning rapide. Sur un supernœud Ascend A3 à 64 cartes avec un grand mode EP, DeepSeek V4-Flash atteint plus de 2,000 TPS en Decode monocarte sur des scénarios entrée/sortie 8K/1K en utilisant le moteur d’inférence vLLM. Les lignes de produits complètes Huawei Ascend A2, A3 et 950 prennent en charge à la fois DeepSeek V4-Flash et V4-Pro.
Huawei Cloud a annoncé une compatibilité en avance avec DeepSeek V4, offrant aux développeurs des services d’API token en un clic via sa plateforme MaaS. Huawei Cloud a optimisé les capacités au niveau système, au niveau opérateur et au niveau cluster pour garantir une adaptation rapide des modèles et un déploiement performant. Des entreprises, dont Kingsoft WPS et 360, ont déjà intégré le nouveau modèle de DeepSeek via Huawei Cloud.
Cambricon a également annoncé une compatibilité Day 0 avec DeepSeek V4-Flash et V4-Pro basée sur le framework d’inférence vLLM, avec un code d’adaptation open-sourcé à la communauté GitHub. Cambricon avait déjà atteint une adaptation en avance lorsque DeepSeek V3.2 a été publié l’an dernier, ayant mené une optimisation approfondie des performances en collaboration logiciel-hardware sur les modèles de la série DeepSeek.
Articles similaires
Reid Hoffman : Les NFT pourraient revenir, car les agents IA ont besoin de la confiance crypto
Scale AI reçoit un contrat du Pentagone $500M pour le traitement de données d’IA
xAI d’Elon Musk va se renommer SpaceXAI alors que son statut de société indépendante prend fin
IBM élargit sa suite d’IA d’entreprise avec de nouveaux outils basés sur des agents à Think 2026
Les actions de Hut 8 bondissent de 30 % sur un bail de centre de données d’IA de 9,8 milliards de dollars