DeepSeek випускає моделі V4-Pro і V4-Flash із 98% нижчою вартістю, ніж у GPT-5.5 Pro від OpenAI

Повідомлення Gate News, 25 квітня — DeepSeek випустила прев’ю-версії V4-Pro та V4-Flash 24 квітня; обидві — моделі з відкритими вагами з контекстними вікнами на один мільйон токенів. V4-Pro має 1,6 трильйона загальних параметрів, але активує лише 49 мільярдів за один прохід виведення, використовуючи архітектуру Mixture-of-Experts. V4-Flash має 284 мільярди загальних параметрів із 13 мільярдами активними.

Ціни суттєво нижчі, ніж у конкурентів: V4-Pro коштує $1,74 за мільйон вхідних токенів і $3,48 за мільйон вихідних токенів — приблизно на 98% менше, ніж GPT-5.5 Pro від OpenAI ($30 input, $180 output), і приблизно у двадцяту частину вартості Claude Opus 4.7. V4-Flash коштує $0,14 за вхід і $0,28 за вихід на мільйон токенів. Обидві моделі є відкритим кодом під ліцензією MIT і можуть працювати локально безкоштовно.

DeepSeek досягла приросту ефективності завдяки двом новим механізмам уваги: Compressed Sparse Attention і Heavily Compressed Attention, які знижують обчислювальні витрати до 27% від попередника V4-Pro (V3.2) та до 10% для V4-Flash. Компанія частково навчала V4 на чипах Huawei Ascend, обходячи обмеження на експорт передових процесорів Nvidia зі США. DeepSeek заявила, що після виходу на роботу 950 нових супервузлів у другій половині 2026 року ціни знижуватимуться ще далі.

На бенчмарках продуктивності V4-Pro-Max посідає перше місце в Codeforces competitive programming (3,206 score, що ставить його приблизно на 23-тє місце серед людських учасників) і дає 90,2% за задачами з математики Apex Shortlist проти 85,9% у Claude Opus 4.6. Однак він відстає на бенчмарках багатозадачності: MMLU-Pro (87,5% проти 91,0% у Gemini-3.1-Pro) та 37,7% у Humanity’s Last Exam ( проти 44,4%). У задачах із довгим контекстом V4-Pro лідирує серед моделей з відкритим кодом, але програє Claude Opus 4.6 у тестах MRCR з пошуку.

V4-Pro додає «interleaved thinking», що дозволяє агентним робочим процесам зберігати контекст міркувань упродовж кількох викликів інструментів без очищення між кроками. Обидві моделі підтримують інтеграції для програмування з Claude Code та OpenCode. Згідно з опитуванням розробників DeepSeek серед 85 користувачів, 52% заявили, що V4-Pro готовий бути їхнім агентом для програмування за замовчуванням, а 39% схилялися до впровадження. Старі кінцеві точки deepseek-chat і deepseek-reasoner буде припинено 24 липня 2026 року.

Застереження: Інформація на цій сторінці може походити від третіх осіб і не відображає погляди або думки Gate. Вміст, що відображається на цій сторінці, є лише довідковим і не є фінансовою, інвестиційною або юридичною порадою. Gate не гарантує точність або повноту інформації і не несе відповідальності за будь-які збитки, що виникли в результаті використання цієї інформації. Інвестиції у віртуальні активи пов'язані з високим ризиком і піддаються значній ціновій волатильності. Ви можете втратити весь вкладений капітал. Будь ласка, повністю усвідомлюйте відповідні ризики та приймайте обережні рішення, виходячи з вашого фінансового становища та толерантності до ризику. Для отримання детальної інформації, будь ласка, зверніться до Застереження.

Пов'язані статті

xAI співпрацює з Anthropic, щоб надати доступ до обчислень Colossus

Згідно з офіційними заявами xAI та Anthropic, ці дві компанії створили нове партнерство в сфері обчислень. SpaceX’s xAI підписала угоду, щоб надати Anthropic доступ до обчислювальних ресурсів Colossus. Anthropic планує використати цю додаткову обчислювальну потужність для

GateNews16хв. тому

OpenAI публікує протокол MRC для суперкомп’ютерної мережі! Разом із Nvidia, AMD та Microsoft створюють базову інфраструктуру Stargate

OpenAI оприлюднила AI-суперкомп’ютерний мережевий протокол MRC, співпрацює з AMD, Microsoft, NVIDIA та іншими, а також відкрила код на OCP. MRC розбиває дані та одночасно прокладає кілька маршрутів, у мікросекундному масштабі уникає перешкод, знижує перевантаження, підтримує синхронізацію GPU та вирішує проблему транспортних вузьких місць у великих навчальних кластерах. Бази на кшталт Stargate у Техасі (Abilene) вже розгорнули інтерфейси 800Gb/s та запустили їх у реальному тренуванні.

ChainNewsAbmedia42хв. тому

Платформа для рекрутингу на базі ШІ Ethos завершила раунд серії A на суму $22,75 млн, лідером якого виступила a16z, 6 травня

За даними BlockBeats, лондонська платформа для добору AI-кадрів Ethos завершила раунд фінансування Series A на суму 22,75 мільйона доларів 6 травня: Andreessen Horowitz (a16z) очолив раунд, а General Catalyst долучився. Платформа використовує AI для співбесід із кандидатами та аналізує

GateNews1год тому

OpenAI запускає протокол MRC мережі разом із AMD, Intel, NVIDIA; підтримує 100 000+ GPU

Згідно з оголошенням OpenAI від 6 травня, компанія співпрацює з AMD, Broadcom, Intel, Microsoft і NVIDIA, щоб запустити Multipath Reliable Connection (MRC) — відкритий мережевий протокол для взаємодії GPU у великих кластерах тренування ШІ. Протокол розділяє одну передачу даних на

GateNews2год тому

Акції Hut 8 зростають на 34% після угоди про оренду AI- датацентру на 9,8 мільярда доларів

За даними The Block, акції Hut 8 Corp. зросли на 34% до $107,87 у торгах до відкриття ринку сьогодні після того, як компанія підписала лізингову угоду на $9,8 мільярда для кампусу центру даних з ШІ в окрузі Нуесес, штат Техас, розробленого під обчислювальну архітектуру NVIDIA. Угода є першим етапом Hu

GateNews3год тому

CTO CleanSpark: AI/HPC-інфраструктурі потрібно більше мережевих ресурсів, ніж майнінгу Bitcoin

Згідно з інтерв’ю CoinDesk, технічний директор CleanSpark Тейлор Моннінг заявив, що перехід від майнінгу Bitcoin до інфраструктури AI/HPC потребує більшої надмірності та меншої імпровізації. «Мережеве волокно одного стійкового сервера перевищує таке в усьому майнінг-центрі Bitcoin», Моннінг

GateNews3год тому
Прокоментувати
0/400
Немає коментарів