ШІ-стартап DeepInfra оголосив про завершення раунду B на $1,07 млрд, який очолюють 500 Global і ранній інженер Google Georges Harik; у ньому також беруть участь стратегічні інвестори, зокрема NVIDIA (輛輝達), Samsung Next та Supermicro. Як повідомляє офіційне джерело, ці вливання будуть спрямовані на розширення потужностей глобальних дата-центрів, щоб подолати поточні виклики, з якими стикаються застосунки ШІ під час переходу від етапу «тренування моделей» до «масштабного інференсу», зокрема щодо операційної вартості та вузьких місць з ефективністю.
Сплеск попиту на AI-інференс стає ключовим гальмом для розгортання у компаній
Оскільки ШІ рухається до комерціалізації, центр ваги робочих навантажень у компаній зазнав помітного зсуву. DeepInfra зафіксував, що від моменту раунду A обсяг Token, який обробляє його платформа, виріс у 25 разів, що свідчить: Inference (інференс,推理) уже став основною рушійною силою корпоративних ШІ-ланцюжків. Наразі продуктивність відкритих моделей уже може зрівнятися з пропрієтарними системами, істотно знижуючи поріг для інновацій. Водночас на додачу до цього з’являються застосунки автономних інтелектуальних агентів (Agentic Systems): один інструментований сценарій може потребувати запуску моделей сотні разів. Оскільки традиційні універсальні хмарні платформи не створені під вимоги інференсу, компанії стикаються з надто високими операційними витратами та проблемою неконтрольованих затримок, через що інференс стає системним обмеженням для робочих навантажень.
Вертикально інтегрований стек оптимізує токен-економіку
DeepInfra обирає вертикально інтегровану стратегію та стверджує, що високоефективний інференс можливий лише завдяки скоординованому дизайну між апаратним забезпеченням, мережею та програмним шаром. Команда в минулому має досвід розробки глобальних комунікаційних застосунків imo й управління децентралізованою системою на 2 млн користувачів; нині компанія вже створила в США вісім GPU-інфраструктур. На відміну від сервісів, що орендують потужності в сторонніх постачальників, DeepInfra володіє повним контролем стека — від рівня чипів до API-інтерфейсів. Така архітектура дозволяє оптимізувати «цілодобово онлайн» токен-генераційні задачі й забезпечувати більш прогнозовані затримки під час виконання AI-робочих навантажень, ніж у разі використання універсального хмарного середовища.
Deepinfra — ранній партнер NVIDIA для довгострокової відкритої AI-екосистеми
Deepinfra є раннім партнером з базової інфраструктури для відкритої AI-екосистеми NVIDIA: він підтримує модель Nemotron, архітектуру агентів NemoClaw та інференсне ПЗ NVIDIA Dynamo. Раннє розгортання GPU Blackwell і майбутня інтеграція Vera Rubin та Dynamo дозволять підвищити ефективність інференсу за вартістю аж до 20 разів.
Deepinfra пропонує конкурентні відкриті моделі
Щодо контролю витрат, DeepInfra завдяки оптимізованій роботі апаратного забезпечення обслуговує понад 190 відкритих моделей, намагаючись запропонувати на ринку дуже конкурентну ціну. Наприклад, для відкритої інференс-моделі GLM-5 її змішане ціноутворення становить $1,24 за кожен мільйон Token, що приблизно на 20 % нижче за середній показник у галузі. Для «мисленнєвих моделей», які потребують великих обсягів внутрішніх токен-обчислень, на платформі розроблено механізм кешування: він надає знижене тарифоутворення для повторно поданого статичного тексту, що здатне суттєво зменшити витрати багаторівневих діалогів і конвеєрів генерації з підсиленим пошуком (RAG). Щоб відповідати вимогам підприємств до безпеки, DeepInfra пропонує API, сумісне з OpenAI, і бере на себе зобов’язання не зберігати дані; водночас компанія проходить сертифікації SOC 2 та ISO 27001, щоб гарантувати, що розробники можуть одразу застосовувати моделі у виробничих середовищах.
Спеціалізована інференсна інфраструктура важлива для наступного етапу розвитку штучного інтелекту
Підтримка DeepInfra з боку інвестринкового ринку відображає, що важливість AI-інфраструктури поступово виходить за межі значення самих моделей. Партнер-менеджер 500 Global Tony Wang зазначив, що в середовищах розробки, керованих агентами, розробникам потрібна спеціалізована платформа, яка буде водночас гнучкою, швидкою та надійною. Після завершення цього раунду загальна сума фінансування DeepInfra становитиме $133 млн; кошти будуть спрямовані на розширення глобальних обчислювальних можливостей, поглиблення інструментів для розробників і підтримку наступного покоління моделей автономних інтелектуальних агентів. З огляду на те, що щотижневий обсяг оброблених Token наближається до 5 трлн, DeepInfra має на меті побудувати високоефективну «токен-фабрику», щоб забезпечити компаніям сталу обчислювальну основу на етапі масштабування застосунків ШІ.
Ця стаття «Партнер NVIDIA у відкритій AI-екосистемі Deepinfra залучив $107 млн у раунді B і створює “токен-фабрику”» вперше з’явилась на «Ланцюжкових новинах ABMedia».
Related News
Anthorpic створює фінансового AI-агента, орієнтованого на індустрію; інсайдери розповіли, чому Claude не може замінити аналітиків
Звіт Epoch AI: Anthropic заробляє 9 мільйонів доларів на одного співробітника — на понад 60% більше, ніж OpenAI
Вейл-лабораторія: переговори щодо «фінансування» між DeepSeek та Alibaba не змогли досягти угоди
Попит на ІІ-чипи зростає, IPO Cerebras було викуплено більш ніж у 20 разів
Anthropic розглядає літнє залучення 50 мільярдів доларів, попередня оцінка перед інвестуванням становить близько 900 мільярдів