Fierté nationale DeepSeek-V4 vient d'être open source, avec un contexte ultra-long de 1 million de mots directement généré !


DeepSeek-V4 introduit un tout nouveau mécanisme d'attention et compresse au niveau des tokens, combiné avec l'attention sparse DSA (DeepSeek Sparse Attention), réduisant la consommation de puissance de calcul et de mémoire lors du traitement de contextes extrêmement longs.
Les données de test montrent qu'en évaluation de la programmation agentique, la version V4-Pro dépasse déjà la performance du Sonnet 4.5 couramment utilisé dans l'industrie, et approche le niveau du mode sans réflexion d'Opus 4.6.
Pour répondre aux différentes demandes du marché, DeepSeek adopte une stratégie à double ligne : la version Pro se concentre sur des raisonnements complexes et la connaissance du monde, tandis que la version Flash, avec un nombre de paramètres plus réduit, fournit des appels API à très faible coût.
Voir l'original
post-image
post-image
post-image
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler