У другому розділі інтерв’ю з Хуаном Женьсюнем він напряму відповів на загрозу з боку TPU та ASIC для NVIDIA. Він підкреслив, що NVIDIA створює не один-єдиний AI-чип, а платформу для прискорених обчислень; фокус — на інтеграції цілого екосередовища. Як і в американо-китайській чиповій війні, AI-змагання — це не гра в “одна крапка — один переможець”; важливо, чи зможе розвиватися весь технологічний стек одночасно.
Щодо закиду: «За своєю суттю AI — це масивні матричні множення. Чому не дати керувати більш спеціалізованій архітектурі на кшталт TPU?», відповідь Хуана Женьсюня така: матричні множення дуже важливі, але це не вся AI. Від нових механізмів attention, змішаних SSM, поєднання diffusion та autoregressive — до розподіленого виконання моделей і архітектурних інновацій. Прогрес у AI часто народжується з інновацій у алгоритмах, а не лише з “підштовхування” законом Мура через залізо.
Оскільки в NVIDIA в руках багато готівки і вже через інвестиції в CoreWeave, Nebius, Nscale, навіть через участь у OpenAI, Anthropic тощо вона глибоко долучилася до AI-інфраструктури та рівня моделей, то чому б їй не вийти й самим стати постачальником хмарних сервісів? Відповідь Хуана Женьсюня знову повертається до тієї ж фрази: робити необхідне — якнайбільше, а непотрібне — якнайменше. Це не належить до сфери «якщо ми не зробимо, то ніхто не зробить».
TPU та ASIC не без загроз, але поле битви NVIDIA значно ширше
Стосовно тренду від Google TPU, AWS Trainium і навіть до того, що OpenAI, Anthropic та інші великі клієнти або розробляють власні рішення, або переходять на альтернативні прискорювачі, Хуан Женьсюн не демонструє оборонної позиції. Навпаки, він неодноразово повертає фокус до тези: NVIDIA створює не один-єдиний AI-чип, а платформу для прискорених обчислень.
Він підкреслює, що NVIDIA будує accelerated computing, а не лише tensor processing. AI, звісно, є одним із найважливіших застосувань сьогодні, але GPU та CUDA можуть обробляти набагато більше, ніж просто AI: тут і молекулярна динаміка, і квантова хромодинаміка, і обробка даних, і обчислення в гідродинаміці/потоках, і фізика частинок, і розробка ліків, і генерація зображень та різноманітні наукові обчислення. Саме це робить “точки входу” NVIDIA на ринку природно ширшими, ніж у ASIC, які створюються під один конкретний робочий сценарій.
Щодо закиду: «За своєю суттю AI — це масивні матричні множення. Чому не дати керувати більш спеціалізованій архітектурі на кшталт TPU?», відповідь Хуана Женьсюня така:
Матричні множення дуже важливі, але це не вся AI. Від нових механізмів attention, змішаних SSM, поєднання diffusion та autoregressive — до розподіленого виконання моделей і архітектурних інновацій. Прогрес у AI часто народжується з інновацій у алгоритмах, а не лише з “підштовхування” законом Мура через залізо.
Він говорить це дуже прямо: якщо покладатися лише на масштабування транзисторів, то щороку — приблизно — буде лише близько 25% покращення. Але NVIDIA від Hopper до Blackwell здатна забезпечувати стрибки в енергоефективності на рівні 35 разів і навіть 50 разів — і це досягається не просто виробничим процесом. Натомість це результат спільного дизайну моделей, алгоритмів, мереж, пам’яті, системної архітектури та CUDA.
Тому Хуан Женьсюн описує NVIDIA як «компанію для крайніх рівнів спільного проєктування». Це не лише виробник GPU: вони синхронно змінюють процесори, інтерконект, мережі, бібліотеки, алгоритми та весь системний стек. Без CUDA — шару з високою програмованістю — реалізувати такі масштабні оптимізації між рівнями було б дуже складно.
Цінність CUDA: база встановлення, відчуття довіри та глобальна універсальність
Коли ведучий сумнівається: “Оскільки такі великі клієнти, як OpenAI, Anthropic, Google та AWS, уже вміють писати kernel самостійно й оптимізувати фреймворки, чи є взагалі ще така сильна захисна перевага у CUDA?”, Хуан Женьсюн відповідає з трьох позицій.
Перше — повнота й надійність екосередовища. NVIDIA може надати широке підґрунтя для рівня підтримки на рівні інфраструктури фреймворків на кшталт Triton, vLLM, SGLang, тож дослідники можуть будуватися на основі, яка вже достатньо багато разів верифікована. Для розробників найбільше лихо — це не те, що “вони самі десь помилилися”, а те, що вони навіть не зможуть визначити, де саме помилка: у їхньому коді чи на базовій платформі. Одна з цінностей CUDA саме в тому, що її «багаторазово проганяли», і їй достатньо довіряти.
Друге — величезний обсяг встановлень (install base). Хуан Женьсюн прямо каже: якщо ви розробник фреймворків або розробник моделей, то абсолютне, чого ви хочете, — це install base. Вам не хочеться писати софт тільки “під себе”; натомість ви хочете, щоб він працював на максимально можливій кількості машин. Від A10 та A100 до H100 та H200 — і далі через хмару та edge, через роботів і робочі станції. CUDA майже всюдисуща. Така база встановлення означає: один раз розробивши, ви можете покрити дуже велику кількість систем по всьому світу.
Третє — універсальність для різних хмар і різних сценаріїв. Хуан Женьсюн зазначає, що NVIDIA — одна з небагатьох, хто може одночасно існувати як платформа обчислень і в усіх основних хмарних середовищах, і в on-prem. Для AI-компаній це означає, що їм не обов’язково надто рано “застрягати” в одному хмарному сервіс-провайдері, і простіше розгортати продукти в різних ринках та сценаріях.
Інакше кажучи, цінність CUDA — це не лише «зручна інструментальна ланцюжок», а поєднання повноти екосистеми, глобальної бази встановлення та універсальності для сценаріїв, що створює дуже важкий для легкого збивання гвинтовий маховик.
Висока валова маржа не через “податок за софт”, а через «виробництво token на кожен ват» і загальну вартість володіння
Щодо зовнішніх сумнівів, що NVIDIA здатна підтримувати високу валову маржу великою мірою завдяки монополії CUDA, і що в майбутньому, якщо більше клієнтів матимуть змогу самостійно писати kernel та створювати стек замінюючого софту, чи не буде це з’їдати маржу — відповідь Хуана Женьсюня дуже впевнена.
Він вказує, що інженерні ресурси, які NVIDIA направляє на підтримку в різних великих AI-лабораторіях, є «просто вражаючими» за кількістю, адже GPU не так легко “взяти під контроль”, як CPU. Хуан Женьсюн порівнює CPU з Cadillac: плавний, зручний, зрозумілий і доступний кожному; а прискорювачі NVIDIA — як F1-автомобіль: теоретично ним може керувати кожен, але щоб реально вичавити продуктивність на максимум, потрібна дуже висока професійна майстерність.
NVIDIA також широко використовує AI, щоб генерувати й оптимізувати kernel для себе, тому під час спільного налаштування з клієнтами вони часто можуть підняти продуктивність певної моделі або stack на 50%, в 2 рази чи навіть у 3 рази. Для клієнтів, які володіють великими флотами GPU, така оптимізація майже дорівнює прямому подвоєнню доходу.
Хуан Женьсюн іде ще далі: він стверджує, що платформа NVIDIA має найкращу performance per TCO в усьому світі, тобто найкраще співвідношення загальної вартості володіння та продуктивності. Він каже, що ніхто не може справді довести, що TPU, Trainium або інші платформи є кращими за NVIDIA за сукупною вартістю та ефективністю; також у ринку бракує публічних, довірених і таких, що дозволяють позитивно порівняти, демонстрацій.
На його думку, успіх NVIDIA не в тому, що клієнти “прив’язані” до CUDA, а в тому, що на однаковій енергії й за однакових капітальних витрат NVIDIA здатна виробляти найбільше token, а далі — перетворювати це на найбільший дохід. Для клієнтів, які будують AI дата-центр рівня 1GW, найважливіше — не те, чи не надто дорогий окремий чип, а чи може весь дата-центр приносити максимум доходу. Поки NVIDIA лишається глобально найкращою за tokens per watt і perf per dollar, висока маржа має свою обґрунтованість.
Чому NVIDIA не стала власноруч hyperscaler’ом?
Оскільки в NVIDIA в руках багато готівки і вже через інвестиції в CoreWeave, Nebius, Nscale, навіть через участь у OpenAI, Anthropic тощо вона глибоко долучилася до AI-інфраструктури та рівня моделей, то чому б їй не вийти й самим стати постачальником хмарних сервісів?
Відповідь Хуана Женьсюня знову повертається до тієї ж фрази: «робити необхідне — якнайбільше, а непотрібне — якнайменше».
Якщо NVIDIA не займатиметься CUDA, NVLink, CUDA-X, різноманітними бібліотеками для предметних областей і базовими платформами, то ці речі, ймовірно, взагалі нікому не знадобилося б робити, тож NVIDIA має це робити сама. Але якщо це про хмарні сервіси, то у світі вже існує багато таких гравців, і це не належить до сфери «якщо ми не зробимо, то ніхто не зробить».
Однак, коли новий тип AI-хмарних сервіс-провайдерів ще дуже слабкий і йому, можливо, потрібна “підтяжка”, щоб злетіти, NVIDIA готова надати фінансування, забезпечення та технічну підтримку, щоб допомогти цьому екосередовищу вирости. Тобто NVIDIA готова “підсаджувати” екосистему, але не хоче власноруч перетворюватися на фінансиста або hyperscaler.
Щодо інвестицій в OpenAI, Anthropic та інші компанії, Хуан Женьсюн також визнає, що це, по суті, результат навчання NVIDIA останніх років. Раніше NVIDIA не усвідомлювала, що такі компанії базових моделей, як OpenAI та Anthropic, на ранній стадії взагалі не могли б бути створеними, спираючись на традиційну модель VC з необхідною щільністю капіталу. Коли він це реально зрозумів, тоді усвідомив: якби у нього була така можливість, він міг би підставитися й підтримати ще раніше.
Він навіть прямо говорить, що це було одним із його власних неправильних суджень: «Тоді я не глибоко розумів: якщо ці компанії не отримують підтримку від великих технологічних компаній або капіталу рівня, близького до такого, вони просто не зможуть з’явитися». Тепер, коли NVIDIA має більший масштаб, він пояснює, що більше не допустить подібної помилки.
Китайське питання — найгостріший фрагмент всієї розмови
Найнапруженіша та найжорсткіша атака й оборона впродовж усієї розмови зосереджена на Китаї та обмеженнях на експорт чипів. Позиція ведучого така: AI-обчислювальна потужність є прямим “вкладенням” у тренування та розгортання моделей високого ризику. Якщо Китай отримає більше передових обчислювальних потужностей, він потенційно швидше створить моделі, здатні до мережевих атак, пошуку вразливостей тощо; це створює реальний ризик для національної безпеки США та безпеки компаній.
Хуан Женьсюн не заперечує, що AI має ризики, і не заперечує, що США мають і далі зберігати лідерство, але він дуже рішуче виступає проти того, щоб прирівнювати AI-чипи до матеріалів для ядерної зброї або проти крайнього висновку «якщо продати трохи більше, то станеться біда».
Його ключові аргументи мають кілька пунктів.
По-перше, він вважає, що Китай не є “вакуумом” без обчислювальної потужності. Китай має колосальні енергетичні ресурси, здатність до виробництва чипів, телекомунікаційну та мережеву інфраструктуру, а також глобально дуже значну частку талантів, зайнятих AI-дослідженнями. У викладі Хуана Женьсюня Китай — це не «якщо не отримати чипи NVIDIA, то неможливо розвивати AI», а «якщо не отримають найкраще, то використають своє, і їх змусить це швидше вибудувати власний локальний технологічний стек».
По-друге, він вважає, що побічним ефектом експортних обмежень є примусове прискорення відриву китайських open-source моделей, екосистеми та чипової індустрії від технологічного стеку США. На його думку, саме це є ризиком, який США мають турбувати більше в довгостроковій перспективі. Бо AI — це не лише моделі. Це ще й рівень чипів, рівень інструментів для розробки, рівень open-source екосистеми, рівень застосувань — весь стек загалом. Якщо США, захищаючи якийсь один рівень, наприклад найпередовіші компанії з моделями, пожертвують впливом на китайський ринок у сфері чипів і екосистеми розробників, то в довгостроковій перспективі це, навпаки, може змусити США втратити позиції в глобальній боротьбі стандартів і платформ.
Китай — другий за величиною технологічний ринок у світі та один із найбільших внесників у глобальний open-source софт і open-source моделі. Якщо США добровільно відмовляться від цієї частини ринку, то це фактично означатиме добровільне перенаправлення цілого кластера розробників у інший технологічний стек. Це шкодить не лише NVIDIA, а й усьому американському технологічному сектору й безпеці країни.
По-третє, він знову й знову підкреслює, що світ — це не гра з нульовою сумою та не нескінченні крайні гіпотези. США, звісно, мають мати найбільше, найкраще й найранішу обчислювальну потужність — і він повністю з цим погоджується; але це не означає, що США повинні свідомо відмовлятися від другого за величиною ринку у світі, або описувати AI як абсолютну зброю, подібну до збагаченого урану в метафоричному сенсі. Для нього надто крайні наративи не лише не допомагають формуванню політики, а ще можуть відлякувати таланти, послаблювати довіру індустрії, і зрештою змушувати США самим втрачати конкурентні переваги.
Навіть цю справу він повертає до контексту внутрішньої промислової політики: «Якщо США через страх надмірно “озброять” AI, то це також змусить більше людей чинити опір тому, щоб вкладатися в софт, інженерію та суміжні галузі». У його очах така політика, побудована на страху, — це “психологія переможеного”, а не належна позиція держави, яка має вести революцію технологій.
По суті, Хуан Женьсюн справді хоче сказати таке: «AI-змагання — це не гра в “одна крапка — один переможець”; треба дивитися, чи зможе одночасно зміцнюватися весь технологічний стек».
Ця стаття Хуан Женьсюн — останнє інтерв’ю (нижня частина): Чому NVIDIA не робить Hyperscaler самостійно? — вперше з’явилася в Lанцюг новин ABMedia.