Повідомлення Gate News, 25 квітня — DeepSeek випустила прев’ю-версії V4-Pro та V4-Flash 24 квітня; обидві — моделі з відкритими вагами з контекстними вікнами на один мільйон токенів. V4-Pro має 1,6 трильйона загальних параметрів, але активує лише 49 мільярдів за один прохід виведення, використовуючи архітектуру Mixture-of-Experts. V4-Flash має 284 мільярди загальних параметрів із 13 мільярдами активними.
Ціни суттєво нижчі, ніж у конкурентів: V4-Pro коштує $1,74 за мільйон вхідних токенів і $3,48 за мільйон вихідних токенів — приблизно на 98% менше, ніж GPT-5.5 Pro від OpenAI ($30 input, $180 output), і приблизно у двадцяту частину вартості Claude Opus 4.7. V4-Flash коштує $0,14 за вхід і $0,28 за вихід на мільйон токенів. Обидві моделі є відкритим кодом під ліцензією MIT і можуть працювати локально безкоштовно.
DeepSeek досягла приросту ефективності завдяки двом новим механізмам уваги: Compressed Sparse Attention і Heavily Compressed Attention, які знижують обчислювальні витрати до 27% від попередника V4-Pro (V3.2) та до 10% для V4-Flash. Компанія частково навчала V4 на чипах Huawei Ascend, обходячи обмеження на експорт передових процесорів Nvidia зі США. DeepSeek заявила, що після виходу на роботу 950 нових супервузлів у другій половині 2026 року ціни знижуватимуться ще далі.
На бенчмарках продуктивності V4-Pro-Max посідає перше місце в Codeforces competitive programming (3,206 score, що ставить його приблизно на 23-тє місце серед людських учасників) і дає 90,2% за задачами з математики Apex Shortlist проти 85,9% у Claude Opus 4.6. Однак він відстає на бенчмарках багатозадачності: MMLU-Pro (87,5% проти 91,0% у Gemini-3.1-Pro) та 37,7% у Humanity’s Last Exam ( проти 44,4%). У задачах із довгим контекстом V4-Pro лідирує серед моделей з відкритим кодом, але програє Claude Opus 4.6 у тестах MRCR з пошуку.
V4-Pro додає «interleaved thinking», що дозволяє агентним робочим процесам зберігати контекст міркувань упродовж кількох викликів інструментів без очищення між кроками. Обидві моделі підтримують інтеграції для програмування з Claude Code та OpenCode. Згідно з опитуванням розробників DeepSeek серед 85 користувачів, 52% заявили, що V4-Pro готовий бути їхнім агентом для програмування за замовчуванням, а 39% схилялися до впровадження. Старі кінцеві точки deepseek-chat і deepseek-reasoner буде припинено 24 липня 2026 року.
Пов'язані статті
xAI співпрацює з Anthropic, щоб надати доступ до обчислень Colossus
OpenAI публікує протокол MRC для суперкомп’ютерної мережі! Разом із Nvidia, AMD та Microsoft створюють базову інфраструктуру Stargate
Платформа для рекрутингу на базі ШІ Ethos завершила раунд серії A на суму $22,75 млн, лідером якого виступила a16z, 6 травня
OpenAI запускає протокол MRC мережі разом із AMD, Intel, NVIDIA; підтримує 100 000+ GPU
Акції Hut 8 зростають на 34% після угоди про оренду AI- датацентру на 9,8 мільярда доларів
CTO CleanSpark: AI/HPC-інфраструктурі потрібно більше мережевих ресурсів, ніж майнінгу Bitcoin