Gate News-Meldung, 25. April — DeepSeek hat am 24. April Vorschauversionen von V4-Pro und V4-Flash veröffentlicht, beides Open-Weight-Modelle mit Kontextfenstern von einer Million Token. V4-Pro verfügt über 1,6 Billionen Gesamtparameter, aktiviert jedoch nur 49 Milliarden pro Inferenzdurchlauf mithilfe einer Mixture-of-Experts-Architektur. V4-Flash hat 284 Milliarden Gesamtparameter mit 13 Milliarden aktiv.
Die Preise sind deutlich niedriger als bei Wettbewerbern: V4-Pro kostet $1,74 pro Million Input-Token und $3,48 pro Million Output-Token — ungefähr 98% weniger als OpenAI’s GPT-5.5 Pro ($30 input, $180 output) und etwa ein Zwanzigstel der Kosten von Claude Opus 4.7. V4-Flash ist mit $0,14 für Input und $0,28 für Output pro Million Tokens bepreist. Beide Modelle sind Open Source unter der MIT-Lizenz und können kostenlos lokal betrieben werden.
DeepSeek erzielte Effizienzgewinne durch zwei neue Aufmerksamkeitsmechanismen: Compressed Sparse Attention und Heavily Compressed Attention, die die Rechenkosten auf 27% des Vorgängers V4-Pro (V3.2) senken und auf 10% für V4-Flash. Das Unternehmen trainierte V4 teilweise auf Huawei-Ascend-Chips und umging damit US-Exportbeschränkungen für fortgeschrittene Nvidia-Prozessoren. DeepSeek erklärte, dass die Preise noch weiter sinken werden, sobald später im Jahr 2026 950 neue Superknoten online gehen.
Bei Performance-Benchmarks belegt V4-Pro-Max den ersten Platz im Codeforces-Wettbewerb (3,206 Punkte und liegt damit bei etwa 23. Stelle unter den menschlichen Teilnehmenden) sowie bei 90,2% für Apex-Shortlist-Mathematikaufgaben gegenüber den 85,9% von Claude Opus 4.6. Allerdings liegt es hinter den Multitasking-Benchmarks zurück: MMLU-Pro (87,5% vs. Gemini-3.1-Pro’s 91,0%) und Humanity’s Last Exam (37,7% vs. 44,4%). Bei Aufgaben mit langem Kontext führt V4-Pro zwar Open-Source-Modelle an, verliert jedoch bei MRCR-Retrieval-Tests gegen Claude Opus 4.6.
V4-Pro führt “interleaved thinking” ein und ermöglicht Agent-Workflows, den Begründungskontext über mehrere Tool-Aufrufe hinweg beizubehalten, ohne zwischen den Schritten zu leeren. Beide Modelle unterstützen Code-Integrationen mit Claude Code und OpenCode. Laut einer Entwicklerumfrage von DeepSeek unter 85 Nutzern sagten 52%, dass V4-Pro als ihr Standard-Coding-Agent bereit sei, wobei 39% eine Übernahme bevorzugen. Die alten deepseek-chat- und deepseek-reasoner-Endpunkte werden am 24. Juli 2026 eingestellt.
Verwandte Artikel
Reid Hoffman: NFTs könnten zurückkehren, da KI-Agenten Krypto-Vertrauen brauchen
Scale AI erhält $500M -Pentagon-Vertrag zur Verarbeitung von KI-Daten
xAI von Elon Musk soll in SpaceXAI umbenannt werden, da der Status als unabhängiges Unternehmen endet
IBM erweitert seine Enterprise-KI-Suite mit neuen agentenbasierten Tools auf dem Think 2026
Hut 8-Aktien steigen um 30 % auf einen 9,8-Milliarden-US-Dollar-Deal für ein KI-Rechenzentrums-Leasing