Ниже приведён перевод текста на русский язык:
Генеральный директор Nvidia Jensen Huang недавно заявил на конференции, организованной Morgan Stanley, что недавние инвестиции компании в стартап в области искусственного интеллекта OpenAI на сумму 30 миллиардов долларов, возможно, станут последней инвестицией перед его публичным размещением (IPO) в конце этого года. Это подтверждает, что масштабное сотрудничество по инфраструктуре стоимостью 100 миллиардов долларов, о котором широко говорили в сентябре прошлого года, не будет реализовано. В то же время, ожидается, что инвестиции Nvidia в другую AI-компанию Anthropic на сумму 10 миллиардов долларов также будут завершены.
Стратегия финансирования OpenAI и инвестиций Nvidia
Недавно Nvidia участвовала в новом раунде финансирования OpenAI на сумму 110 миллиардов долларов, в рамках которого Nvidia вложила 30 миллиардов долларов, а Amazon и SoftBank пообещали по 50 и 30 миллиардов долларов соответственно. Согласно сообщению CNBC, на конференции Morgan Stanley, генеральный директор Jensen Huang заявил, что поскольку OpenAI планирует провести первичное публичное размещение (IPO) до конца года, ранее обсуждавшееся сотрудничество по инфраструктуре на сумму 100 миллиардов долларов уже не представляется возможным. Этот шаг свидетельствует о более осторожной стратегии капиталовложений Nvidia, а также о временном прекращении инвестиций в Anthropic на сумму 10 миллиардов долларов.
(Ответ Jensen Huang на слухи WSJ: «Нет недовольства OpenAI, нет обещаний инвестировать 100 миллиардов долларов»)
Обеспечение вычислительных ресурсов и инфраструктурное развитие
В рамках этого соглашения OpenAI обеспечила эксклюзивные вычислительные мощности для inference на системе Nvidia Vera Rubin — 3 ГВт (гигаваатт) для inference и 2 ГВт для обучения, что критически важно для работы их дата-центров. В отличие от прошлогодних договорённостей, связанных с запуском новых систем, в этот раз инвестиции не привязаны к конкретным этапам развертывания. Это отражает изменение потребностей в инфраструктуре, переход к более гибким моделям, которые можно сразу применять.
Переход отрасли: от обучения к inference
По мере развития технологий потребности в аппаратных средствах для AI меняются: от «обучения моделей» к более быстрому « inference». В ответ на эти тенденции Nvidia разрабатывает новые чипы, оптимизированные для inference, и ожидается, что OpenAI станет одним из ключевых клиентов. Также OpenAI внедряет inference-оптимизированные чипы Amazon и TPU от Google, что свидетельствует о стремлении ведущих AI-компаний диверсифицировать цепочки поставок и снизить зависимость от одного поставщика аппаратного обеспечения.
Эта статья «Jensen Huang: инвестиции Nvidia в OpenAI и Anthropic завершены» впервые опубликована на Chain News ABMedia.