出典:ウォール街見聞執筆者:鲍奕龙GTC 2026 大会で、英偉達のCEO黄仁勋は同社を「AI工場」構築者と位置付け、「2027年までに少なくとも1兆ドルの高確信度需要が見込まれる」と述べた。彼は「トークン工場経済学」を提唱し、性能のワットあたりが商業化の核心であることを強調した。黄仁勋は、エージェント(AIエージェント)が従来のSaaSモデルを終焉させ、今後は「年収+トークン予算」が新たな職場の標準になると断言した。開会挨拶司会者:英偉達創業者兼CEOの黄仁勋をお迎えします。黄仁勋、創業者兼CEO:GTCへようこそ。これは技術の祭典であり、多くの方々が早朝から列を作って入場されているのを見て、大変嬉しく思います。本日は、CUDA-Xプラットフォーム、システムプラットフォーム、そして新たなAI工場プラットフォームの三つの主要なテーマについて議論します。もちろん、最も重要なのはエコシステムです。まず、事前に盛り上げてくれた司会者の皆さんに感謝します。ConvictionのSarah Guoさん、シリコンバレーのベンチャーキャピタルSequoiaのAlfred Linさん(英偉達の最初のリスク投資家)、そして英偉達の最初の重要な機関投資家Gavin Bakerさんの三名です。彼らは技術に深い理解を持ち、技術エコシステムに広範な影響力を持っています。また、私が直接選んだすべてのゲストにも感謝します。同時に、参加企業の皆さまにも感謝します。英偉達はプラットフォーム企業として、技術、プラットフォーム、豊富なエコシステムを持ちます。本日、数兆ドル産業をカバーする企業がほぼすべて集結しています。450社の企業が本イベントを支援しており、心から感謝します。本大会は、1000の技術セッションと2000人の講演者を集め、人工知能の「五層ケーキ」の各層—土地、電力・インフラ、チップ、プラットフォーム、モデル、そして産業を牽引する各種アプリケーション—を網羅します。CUDAの20年の歩み今年はCUDA誕生20周年です。この20年間、私たちはこのアーキテクチャに取り組み続けてきました。この革新的な発明、SIMT(Single Instruction Multiple Thread)は、スカラーコードをマルチスレッドアプリケーションに派生させることを可能にし、従来よりもプログラミングが容易になっています。近年ではTiles(タイル)サポートも追加し、Tensor Coreや現代のAI数学構造のプログラミングをより便利にしています。これまでに、CUDAは数千種類のツール、コンパイラ、フレームワーク、ライブラリを蓄積し、オープンソースコミュニティには十万を超える公開プロジェクトが存在し、すべての主要エコシステムに深く統合されています。フライホイール効果とインストール基盤次の図は、英偉達の戦略の全貌をほぼ表しています。最も難しく、かつ戦略的価値の高いのは、基盤のインストールです。20年を経て、世界中に数億のCUDA搭載GPUと計算システムを構築してきました。クラウドサービス事業者やコンピュータメーカーを網羅し、ほぼすべての産業にサービスを提供しています。CUDAのインストール基盤こそがフライホイール加速の根幹です。巨大なインストール基盤は開発者を惹きつけ、新たなアルゴリズムを生み出し、深層学習の誕生などの突破口をもたらしました。これらの突破は新市場を切り開き、エコシステムパートナーを集め、より大きなインストール基盤を形成します。このフライホイールは今も加速し続けています。現在、英偉達のライブラリのダウンロード数は驚異的な速度で増加しており、その成長率はさらに高まっています。このフライホイールにより、計算プラットフォームは膨大なアプリケーションと技術革新を支え続けています。さらに重要なのは、これによりインフラの寿命も非常に長くなることです。理由は簡単で、英偉達CUDAが動作するアプリケーションは非常に広範囲に及び、AIのライフサイクルの各段階、各種データ処理プラットフォーム、科学的原理の解法器に至るまでカバーしているため、一度英偉達GPUを導入すれば、その使用寿命は非常に長くなるのです。これが、6年前に発表したAmpereアーキテクチャのクラウド価格が今も上昇し続けている理由です。一方、ソフトウェアの継続的なアップデートにより、計算コストも絶えず低下しています。これは、初期のパフォーマンス向上だけでなく、加速計算による長期的なコスト削減効果も反映しています。すべてのGPUがアーキテクチャ上互換性を持つため、私たちは世界中のすべてのGPUを継続的にサポートし、メンテナンスしています。インストール基盤が大きいほど、新たな最適化の恩恵を受けるユーザーも多くなるのです。このダイナミックな組み合わせにより、英偉達のアーキテクチャはカバレッジを拡大し、成長を加速させながら、計算コストを引き下げ、新たな成長サイクルを促進しています。CUDAの出発点:GeForceCUDAの旅は、実は25年前のGeForceから始まっています。GeForceは英偉達史上最も成功したマーケティングです。私たちは、あなたたちがまだ幼く、消費能力もなかった頃から未来の顧客を惹きつけてきました—その頃はあなたたちの親が支払っていたのです。年を重ね、やがて優れたコンピュータサイエンティスト、真の開発者へと成長していきました。25年前、私たちはプログラマブルシェーダーを発明しました。これは世界初のプログラマブルアクセラレータであり、ピクセルシェーダーの出発点です。この発明は私たちの探求心を刺激し、5年後にCUDAを生み出しました。CUDAをGeForceからすべてのコンピュータへ展開することは、当時の最大の投資の一つでした。負担は大きかったものの、その潜在能力を信じて、20年、13世代のアーキテクチャを経て、今やCUDAはどこにでも存在します。約8年前、私たちはRTXをリリースし、アーキテクチャを根本的に再設計しました。これにより、ハードウェアレイトレーシングとAI駆動のグラフィックスレンダリングという二つの新理念を導入しました。GeForceがAIを世界に持ち込んだように—Alex Krizhevsky、Ilya Sutskever、Geoffrey Hinton、Andrew NgらがGPUが深層学習の加速器であることを発見し、AIの爆発的進展を引き起こしたのです—今やAIは、コンピュータグラフィックスも根底から革新しています。神経レンダリング:DLSS 5今日は、グラフィックス技術の未来をお見せします。これを神経レンダリングと呼びます—3Dグラフィックスと人工知能の融合です。これがDLSS 5です。その効果は衝撃的です。私たちは、制御可能な3Dグラフィックス(仮想世界の「構造化データ」)と生成式AI(確率計算)を融合させました。一方は完全に予測可能、もう一方は確率駆動で高いリアリズムを持ちます。両者の融合により、生成されるコンテンツは美しく、リアルでありながら完全に制御可能です。構造化情報と生成式AIの融合は、さまざまな産業で繰り返し起こるでしょう。構造化データは信頼できるAIの基盤です。構造化データと非構造化データプラットフォーム次の図は少し衝撃を与えるかもしれませんが、どうか最後までお聞きください。構造化データ—SQL、Spark、Pandas、Velox、Snowflake、Databricks、Amazon EMR、Azure Fabric、Google BigQueryなどの重要なプラットフォーム—はすべてデータフレーム(Data Frame)を扱います。これらのデータフレームは巨大なスプレッドシートの本質であり、すべてのビジネス情報を保持し、企業の計算の「基準事実」です。AI時代において、これらの構造化データはAIによって高速に呼び出される必要があり、極限まで加速されなければなりません。将来のAIエージェントも、広く構造化データベースを利用するでしょう。一方、非構造化データは世界の情報の大部分を占めます。ベクトルデータベース、PDF、動画、音声などです。世界中で毎年生成される情報の約90%は非構造化データです。かつてはほとんど役に立たず、ファイルシステムに保存しても検索やクエリはできませんでした。しかし今、AIがこれを変えています。AIはマルチモーダル認識と理解の問題を解決し、PDFを読み取り、その意味を理解し、より大きな構造に埋め込むことが可能になっています。これに対応し、英偉達は二つの基盤ライブラリを作成しました。cuDF:データフレームと構造化データの高速化cuVS:ベクトルストア、セマンティックデータ、非構造化AIデータの高速化これらのプラットフォームは、今後最も重要な計算基盤の一つとなるでしょう。本日、いくつかの協力関係を正式に発表します。- IBM(SQLの発明者)はcuDFを使い、WatsonXデータプラットフォームを高速化- Dellは私たちと協力し、cuDFとcuVSを統合したDell AIデータプラットフォームを構築- Google Cloud:Vertex AIとBigQueryを加速化。例としてSnapchatでは、計算コストを約80%削減- AWS:EMR、SageMaker、Bedrockを高速化し、OpenAIをAWSに導入、クラウド利用を促進- Microsoft Azure:Azure AI Foundryを高速化し、Bing検索を深くサポート、Azureの地域展開も拡大- CoreWeave:GPUホスティングとAI推論のための世界初のAIネイティブクラウド- Oracle:Oracleの最初のAI顧客- Palantir + Dell:三者協力により、任意の国や隔離エリア、完全ローカルでAIプラットフォームを展開可能英偉達のコア戦略:垂直統合と水平開放英偉達は、世界初の垂直統合かつ水平開放の計算企業です。高速計算は単なるチップやシステムの問題ではなく、アプリケーションの加速にあります。各分野で顕著な加速とコスト削減を実現するには、アプリ、分野、アルゴリズムを深く理解し、あらゆる展開シナリオに落とし込む必要があります—データセンター、クラウド、ローカル、エッジ、ロボットシステムなど。これが、英偉達が垂直分野を深く掘り下げる理由です。私たちはアルゴリズムの理解を基に、それを計算プラットフォームに統合し、世界中に開放しています。今回のGTCでは、以下の分野をほぼ網羅しています。- 自動運転- 金融サービス(参加者の最大産業、トレーダーではなく開発者が多い)- 医療・ヘルスケア(「ChatGPT時代」を迎えつつある)- 産業製造- エンターテインメント・ゲーム- ロボット(110台のロボットが出展、ほぼすべてのロボット企業が協力)- 通信(約2兆ドル規模の産業、基地局はAIエッジインフラに進化)本大会では、100のライブラリと約40のモデルのアップデートを発表します。これらは、計算プラットフォームを活性化し、実問題解決の鍵となるコア資産です。中でも最も重要なライブラリの一つはcuDNN(CUDA深層ニューラルネットワークライブラリ)であり、これが人工知能を根底から革新し、現代AIの爆発を引き起こしました。推論の転換点過去2年で何が起きたのか?三つの大きな出来事がこの変化を促しました。1. ChatGPTと生成式AIの時代の幕開け(2022年末から2023年)。AIは認識・理解だけでなく、翻訳・創作も可能にし、新たなコンテンツを生成します。生成式計算は、コンピュータの構造と構築論を根本的に変えました。2. 推論AIの台頭(o1およびo3モデル)。推論AIはモデルに反省・計画をさせ、複雑な問題を処理可能なステップに分解し、信頼性を高め、事実に根ざした動作を可能にします。これによりChatGPTの利用が急増し、入力・出力トークンの計算量も大幅に増加しました。3. Claude CodeとAgentic AIの誕生。これは最初の真の意味でのAgenticモデルであり、ファイルの読み取り、コードの作成、コンパイル、テスト、評価、最適化を行います。Claude Codeはソフトウェアエンジニアリングを根底から革新し、英偉達のエンジニア全員がAIエージェントを使ったプログラミングを行っています。AIは、「認識」から「生成」、「生成」から「推論」、「推論」から「実行」へと進化してきました。今やAIは、実質的な仕事をこなせる段階にあります。推論の転換点は到来しています。AIが思考・実行・読み取り・推論を行うたびに推論(Inference)が必要となり、トークン生成の需要は爆発的に増加しています。過去2年で、単一作業の計算需要は約10,000倍、利用量は約100倍に増え、総需要は約100万倍に達しています。5000億から1兆ドルへ昨年のGTCで、私たちは2026年までにBlackwellとRubinに対し、約5000億ドルの高確信度需要が見込まれると述べました。そして今年のGTCからちょうど1年後、今の状況を見て明確に言えることは、少なくとも2027年までに需要は1兆ドルに達するということです。さらに、実際の計算需要はこれをはるかに超えると確信しています。昨年は英偉達の推論の年でした。私たちは、トレーニングと後トレーニングだけでなく、AIライフサイクルのすべての段階で卓越性を追求し、インフラ投資の長期的価値を最大化しました。また、Anthropicが英偉達を選び、Meta SLも英偉達を採用したことを喜ばしく思います。オープンソースモデルは最前線に近づき、あらゆる場所で使われています。英偉達は、言語、生命科学、コンピュータグラフィックス、コンピュータビジョン、音声、タンパク質・化学、ロボットなど、すべてのAI分野において、エッジからクラウドまで全シナリオをカバーできる唯一の計算プラットフォームです。私たちの「移行性(Fungibility)」アーキテクチャは、AIインフラ構築のコスト最小化と信頼性最大化を実現します。数兆ドルのインフラ投資において、完全な信頼を持って展開できる唯一のプラットフォームです。現在、私たちのビジネスの60%は大手クラウドサービス事業者から、残りの40%は地域クラウド、主権クラウド、企業、産業、ロボット、エッジ、スーパーコンピューティングなど多岐にわたります。この多様性こそがレジリエンスの源泉です。AIはもはや単一のアプリケーションではなく、真の計算プラットフォームの変革です。推論性能の革新私たちは推論最適化において根本的な突破を達成しました。これは史上最も包括的なAI推論性能評価(Semi Analysisによる)です。評価軸は以下の通りです。縦軸(ワットあたりトークン数):スループットを示す。各データセンターは電力制約を受けており、1GWの工場は2GWにはできません。限られた電力内で最大のトークン出力を追求します。横軸(推論速度/トークンレート):インタラクティブ性とAIの「知性」を示す。速度が速いほど、モデルは大きく、コンテキストも長く、思考も深くなり、「賢い」ことになります。結果は衝撃的です。Hopper H200からGrace Blackwellまで、ムーアの法則は約1.5倍の向上を予測していましたが、実際にはワットあたり性能は35倍に達しました。Semi AnalysisのDylan Patelは、私の報告は保守的すぎるとさえ指摘し、実際には50倍の向上だと述べています。これは、英偉達の各トークンコストが世界最安であることを意味します。1GWのデータセンター建設コストは約400億ドル(15年償却)であり、いずれにせよこの固定費を支払う必要があります。そのため、最も性能の高い計算システムを導入し、最低のトークンコストを実現しなければなりません。これにおいて、英偉達は無敵です。Fireworks AIを例に取ると、ソフトウェアを更新しただけで、同じシステムのトークンレートは約700 tokens/秒からほぼ5,000 tokens/秒に7倍向上しました。これが、極致の協調設計の威力です。トークン工場のビジネスロジック今後、すべてのクラウドサービス事業者やAI企業は、トークン工場の視点から自社のビジネスを見直すでしょう。異なるトークンレートは、サービスレベルと価格設定に直結します。- 無料層:高スループット、低速度- 基本層:約3ドル/百万トークン- 標準層:約6ドル/百万トークン- 上級層:約45ドル/百万トークン- 最上位層:約150ドル/百万トークン(高速、超長コンテキスト、最大モデル)例としてGrace Blackwellを挙げると、Hopperと比較して、最も商業価値の高いサービス層でスループットは35倍向上し、収益性が大きく向上します。全体のデータセンター収益も約5倍に増加します。Vera Rubin:次世代アーキテクチャ今や、単なるチップではなく、システム全体を示すのがVera Rubinです。Vera Rubinは、Agenticシステム向けに設計されており、その核心は次の通りです。- 大規模言語モデルはますます巨大化し、より多くのトークンを生成し、より高速に思考- AIエージェントは頻繁にメモリ(KVキャッシュ)、構造化データ(cuDF)、非構造化データ(cuVS)にアクセス- ストレージシステムは大きな負荷に耐える- ツール呼び出しには、CPUのシングルスレッド性能が極めて重要これに応えるため、私たちは新たなVera CPUを開発しました。LPDDR5を採用した世界唯一のデータセンター用CPUで、シングルスレッド性能、データ処理能力、エネルギー効率のすべてにおいて卓越しています。Vera Rubinシステムの主な特徴:- 100%液冷、ケーブルを大幅に簡素化- 設置時間は2日から2時間に短縮- 45°Cの温水冷却により、データセンターの冷却エネルギーを大幅削減- 第六世代NVLink交換システム(世界唯一)を搭載—完全液冷、実現は非常に難しい- 世界初のCPO Spectrum-X交換機(光学集積型)を量産:光子を直接チップに集積し、電子信号を光子に変換してチップに接続。TSMCと共同開発のこの工法は、世界唯一の量産例であり、「CoOP」と呼ばれ、根本的な革新です。各種CPUも量産段階に入り、数十億ドル規模の独立事業となる見込みです。Rubin Ultra(スーパー版):- Rubin Ultraは、新たな「Kyber」ラックを採用し、144GPUを単一のNVLinkドメインに構成- 計算ノードは正面から挿入、NVLinkスイッチは背面の中板を通じて接続され、巨大なスーパーコンピュータを形成技術ロードマップ:- Blackwell(現行):Oberonシステム、NVLink 72対応- Vera Rubin:Kyberラック(NVLink 144)+Oberon銅線/光学拡張でNVLink 576- Vera Rubin Ultra:Rubin Ultraチップ+LP 35(NVFP 4計算構造初導入)- Feynman(次世代):新GPU+LP 40+Rosa CPU(仮称:Rosalyn)+Bluefield 5+CX 10+銅線とCPOのデュアルモード拡張Grok買収と異種推論の突破私たちはGrokの技術チームを買収し、技術ライセンスを得て深く統合しています。Grokプロセッサの特徴:- 決定性データフロープロセッサ、静的コンパイル、コンパイラによるスケジューリング- 計算とデータが同時に到達、完全ソフトウェア制御、動的スケジューリングなし- 大容量SRAMを搭載し、推論のみに最適化ただし、制約もあります。Grokチップは500MBのストレージしか持たず(Rubinは288GB)、大規模モデルのパラメータやKVキャッシュを格納できません。これがスケールの制約でした。そこで、私たちは革新的なアイデアを思いつきました。Dynamo:推論のデカップリングフレームワーク私たちはDynamoソフトウェアを開発し、推論フローを再構築しました。- 事前充填(Prefill)段階:Vera Rubin上で実行(大量計算力必要)- Attention計算(Decode段階):Vera Rubin上で実行(大量計算力必要)- デコードの前方伝播ネットワーク(FFN)/トークン生成:Grokチップ上で実行(高帯域・低遅延)二つの異なる処理系—一つは高スループット向け、もう一つは低遅延向け—をDynamoで密接に連携させ、遅延を約50%削減。結果、最も商業価値の高いサービス層で性能は35倍向上し、これまでにない推論性能の新たな層を切り開きました。Grok LP 30はサムスンの委託生産で、2026年第3四半期から出荷開始予定です。Grok最適展開戦略:- 高スループット重視:100%Vera Rubin- 高価値コード生成や高速トークン需要が多い場合:25%をGrokに割り当て、残り75%はVera Rubinを維持AI工場の規模と展望1GW規模の工場では、上記のアーキテクチャ最適化により、トークン生成速度は2200万から7億へと350倍向上します。これが、極致の協調設計の力です。垂直統合と水平開放により、すべての人がこの成果を享受できます。AI工場の規模拡大に伴い、重要な課題も浮上しています。データセンター内のさまざまな技術供給者はこれまで互いに接触せず、独立して開発してきたため、多くのエネルギー浪費が生じていました。そこで、私たちは英偉達DSXプラットフォームを作成しました。Omniverseを基盤に、すべてのパートナーが仮想空間で1GW級AI工場を共同設計できるようにします。機械、熱管理、電気、ネットワークの全システムシミュレーションを行い、電力網とリアルタイムで連携し、Max-Q技術で動的に電力と冷却を最適化します。このプラットフォームだけでも、約2倍の効率向上をもたらすと信じています。兆ドル規模の投資において、これは非常に大きな価値です。さらに、英偉達は宇宙にも進出します。Thorチップは放射線認証を取得し、衛星に搭載済みです。私たちはVera Rubin Space-1を開発中で、宇宙空間にデータセンターを構築します(放射線冷却の技術的課題を解決する必要があります)。OpenClaw:AIエージェントのオペレーティングシステム次に、重要な新発見についてお話しします。Peter SteinbergerはOpenClawというソフトウェアを開発しました。これは史上最も人気のあるオープンソースプロジェクトとなり、わずか数週間でLinuxの30年の普及を超えました。OpenClawは何か?それはエージェントシステムであり、- 大規模言語モデルと連携- ツールやファイルシステムにアクセス- スケジューリングやタイミングタスクを実行- 問題を段階的なサブタスクに分解- サブエージェントを生成・呼び出し- マルチモーダル(文字、音声、ジェスチャー等)に対応要するに、OpenClawはエージェント型コンピュータのOSです。Windowsがパーソナルコンピュータを可能にしたように、OpenClawは個人のエージェントを可能にします。各企業の最重要課題は、「あなたのOpenClaw戦略は何か?」です。かつて各社がLinux戦略、HTTP/HTML戦略、Kubernetes戦略を持ったように、今やすべての企業がOpenClaw戦略とエージェントシステム戦略を持つ必要があります。企業ITのパラダイムシフト:- 旧モデル:データセンターにファイルを保存→ソフトウェアツール→人間がツールを使用- 新モデル:すべてのSaaS企業がAaaS(Agentic as a Service)企業となり、専門的なエージェントサービスを提供しかし、企業内のエージェントシステムには重大なセキュリティリスクがあります。敏感情報にアクセスし、コードを実行し、外部と通信できるためです。これに対し、Peter Steinbergerと協力し、世界最高峰のセキュリティ専門家とともに、OpenShellセキュリティ技術を基盤としたOpenClaw Enterprise版を開発しました。策略エンジン、ネットワークバリヤ、プライバシールーターを備えた企業向けの安全なアーキテクチャで、「NemoClaw」と名付け、直接ダウンロードして利用可能です。英偉達のオープンモデル計画英偉達は、すでに各AI分野の最先端モデルでリーダーシップを確立しています。| モデル | 分野 ||---|---|| Nemotron | 大規模言語モデル || Cosmos | 世界基盤モデル || GROOT | 汎用ロボットモデル || Alpamayo | 自動運転 || BioNeMo | デジタル生命科学/医薬品発見 || PhysicsNeMo | AI物理シミュレーション |本日、私たちはNemotron連盟を正式に設立し、以下の企業と協力してNemotron 4を共同開発します。- BlackForest Labs(画像生成)- Cursor(コード編集)- LangChain(カスタムエージェント構築フレームワーク、10億ダウンロード超)- Mistral(オープンソース大規模モデル)- Perplexity(AI検索)- Reflection(マルチモーダルエージェントシステム)- Sarvam(インドのAI企業)- Thinking Machines(Mira Murati創設のラボ)これらの企業は、NemoClawのリファレンス設計、英偉達のエージェントAIツールキット、全シリーズのオープンモデルを深く統合し、自社製品・サービスに展開しています。物理AIとロボットデジタルエージェントに加え、私たちは長年にわたり物理AIとロボット分野にも取り組んできました。ロボットシステム向けに、三つの重要な計算機を開発しています。- 訓練用計算機- 合成データ生成・シミュレーション計算機- ロボット本体内蔵計算機SiemensやCadenceなど多くのパートナーと深く連携し、以下の大規模協力も発表しました。自動運転分野:自動運転の「ChatGPT時代」が到来。新たにBYD、Hyundai、Nissan、Geelyの4社と提携し、毎年1800万台の車を英偉達のRoboTaxi Readyプラットフォームに接続。さらにUberとも大規模協力を締結し、複数都市でRoboTaxi車両を展開し、ネットワークに接続します。産業ロボット分野:ABB、Universal Robots、KUKA、Caterpillarなどと協力し、物理AIモデルとシミュレーションシステムを世界の製造ラインに展開。通信分野:T-Mobileも参加。未来の基地局は英偉達のAerial AI RANに進化し、流量推論やビームフォーミングの自動調整を行い、信号品質向上と省エネを実現。最後に、Disneyと共同開発した「オラフ」ロボットを披露。Jetsonプラットフォーム、Omniverseトレーニング環境、DisneyやDeepMindと共同開発のNewton物理解法器(英偉達Warp上で動作)を用い、リアルな物理世界での適応運動を実現。これは物理AIの素晴らしい実例であり、未来のテーマパークのライブプレビューでもあります。まとめ今回のGTCは、以下の四つのコアテーマを中心に展開しました。- 推論の転換点—AIは「理解」から「生成」、「推論」、「実働」へと進化し、計算需要は百万倍に拡大。推論の時代が到来。- AI工場—データセンターは「ファイル保存」から「トークン生産」のAI工場へと変貌。Vera Rubinは各サービス層で約5倍の収益向上を実現。- OpenClawとエージェント革命—企業ITは深く変革しつつあり、すべての企業がエージェント戦略を策定すべき時代。NemoClawは安全な参考設計を提供。- 物理AIとロボット—自動運転、産業ロボット、人型ロボットの時代が到来。皆さまのGTC参加に感謝し、成功を祈ります。
NVIDIA GTC カンファレンス全文:黄仁勳が推論時代の到来を宣言、ロブスターこそが新しいオペレーティングシステム!
出典:ウォール街見聞
執筆者:鲍奕龙
GTC 2026 大会で、英偉達のCEO黄仁勋は同社を「AI工場」構築者と位置付け、「2027年までに少なくとも1兆ドルの高確信度需要が見込まれる」と述べた。彼は「トークン工場経済学」を提唱し、性能のワットあたりが商業化の核心であることを強調した。黄仁勋は、エージェント(AIエージェント)が従来のSaaSモデルを終焉させ、今後は「年収+トークン予算」が新たな職場の標準になると断言した。
開会挨拶
司会者:英偉達創業者兼CEOの黄仁勋をお迎えします。
黄仁勋、創業者兼CEO:
GTCへようこそ。これは技術の祭典であり、多くの方々が早朝から列を作って入場されているのを見て、大変嬉しく思います。
本日は、CUDA-Xプラットフォーム、システムプラットフォーム、そして新たなAI工場プラットフォームの三つの主要なテーマについて議論します。もちろん、最も重要なのはエコシステムです。
まず、事前に盛り上げてくれた司会者の皆さんに感謝します。ConvictionのSarah Guoさん、シリコンバレーのベンチャーキャピタルSequoiaのAlfred Linさん(英偉達の最初のリスク投資家)、そして英偉達の最初の重要な機関投資家Gavin Bakerさんの三名です。彼らは技術に深い理解を持ち、技術エコシステムに広範な影響力を持っています。また、私が直接選んだすべてのゲストにも感謝します。
同時に、参加企業の皆さまにも感謝します。英偉達はプラットフォーム企業として、技術、プラットフォーム、豊富なエコシステムを持ちます。本日、数兆ドル産業をカバーする企業がほぼすべて集結しています。450社の企業が本イベントを支援しており、心から感謝します。
本大会は、1000の技術セッションと2000人の講演者を集め、人工知能の「五層ケーキ」の各層—土地、電力・インフラ、チップ、プラットフォーム、モデル、そして産業を牽引する各種アプリケーション—を網羅します。
CUDAの20年の歩み
今年はCUDA誕生20周年です。
この20年間、私たちはこのアーキテクチャに取り組み続けてきました。この革新的な発明、SIMT(Single Instruction Multiple Thread)は、スカラーコードをマルチスレッドアプリケーションに派生させることを可能にし、従来よりもプログラミングが容易になっています。近年ではTiles(タイル)サポートも追加し、Tensor Coreや現代のAI数学構造のプログラミングをより便利にしています。
これまでに、CUDAは数千種類のツール、コンパイラ、フレームワーク、ライブラリを蓄積し、オープンソースコミュニティには十万を超える公開プロジェクトが存在し、すべての主要エコシステムに深く統合されています。
フライホイール効果とインストール基盤
次の図は、英偉達の戦略の全貌をほぼ表しています。
最も難しく、かつ戦略的価値の高いのは、基盤のインストールです。20年を経て、世界中に数億のCUDA搭載GPUと計算システムを構築してきました。クラウドサービス事業者やコンピュータメーカーを網羅し、ほぼすべての産業にサービスを提供しています。
CUDAのインストール基盤こそがフライホイール加速の根幹です。巨大なインストール基盤は開発者を惹きつけ、新たなアルゴリズムを生み出し、深層学習の誕生などの突破口をもたらしました。これらの突破は新市場を切り開き、エコシステムパートナーを集め、より大きなインストール基盤を形成します。このフライホイールは今も加速し続けています。
現在、英偉達のライブラリのダウンロード数は驚異的な速度で増加しており、その成長率はさらに高まっています。このフライホイールにより、計算プラットフォームは膨大なアプリケーションと技術革新を支え続けています。
さらに重要なのは、これによりインフラの寿命も非常に長くなることです。理由は簡単で、英偉達CUDAが動作するアプリケーションは非常に広範囲に及び、AIのライフサイクルの各段階、各種データ処理プラットフォーム、科学的原理の解法器に至るまでカバーしているため、一度英偉達GPUを導入すれば、その使用寿命は非常に長くなるのです。
これが、6年前に発表したAmpereアーキテクチャのクラウド価格が今も上昇し続けている理由です。
一方、ソフトウェアの継続的なアップデートにより、計算コストも絶えず低下しています。これは、初期のパフォーマンス向上だけでなく、加速計算による長期的なコスト削減効果も反映しています。すべてのGPUがアーキテクチャ上互換性を持つため、私たちは世界中のすべてのGPUを継続的にサポートし、メンテナンスしています。インストール基盤が大きいほど、新たな最適化の恩恵を受けるユーザーも多くなるのです。
このダイナミックな組み合わせにより、英偉達のアーキテクチャはカバレッジを拡大し、成長を加速させながら、計算コストを引き下げ、新たな成長サイクルを促進しています。
CUDAの出発点:GeForce
CUDAの旅は、実は25年前のGeForceから始まっています。
GeForceは英偉達史上最も成功したマーケティングです。私たちは、あなたたちがまだ幼く、消費能力もなかった頃から未来の顧客を惹きつけてきました—その頃はあなたたちの親が支払っていたのです。年を重ね、やがて優れたコンピュータサイエンティスト、真の開発者へと成長していきました。
25年前、私たちはプログラマブルシェーダーを発明しました。これは世界初のプログラマブルアクセラレータであり、ピクセルシェーダーの出発点です。この発明は私たちの探求心を刺激し、5年後にCUDAを生み出しました。
CUDAをGeForceからすべてのコンピュータへ展開することは、当時の最大の投資の一つでした。負担は大きかったものの、その潜在能力を信じて、20年、13世代のアーキテクチャを経て、今やCUDAはどこにでも存在します。
約8年前、私たちはRTXをリリースし、アーキテクチャを根本的に再設計しました。これにより、ハードウェアレイトレーシングとAI駆動のグラフィックスレンダリングという二つの新理念を導入しました。GeForceがAIを世界に持ち込んだように—Alex Krizhevsky、Ilya Sutskever、Geoffrey Hinton、Andrew NgらがGPUが深層学習の加速器であることを発見し、AIの爆発的進展を引き起こしたのです—今やAIは、コンピュータグラフィックスも根底から革新しています。
神経レンダリング:DLSS 5
今日は、グラフィックス技術の未来をお見せします。これを神経レンダリングと呼びます—3Dグラフィックスと人工知能の融合です。これがDLSS 5です。
その効果は衝撃的です。私たちは、制御可能な3Dグラフィックス(仮想世界の「構造化データ」)と生成式AI(確率計算)を融合させました。一方は完全に予測可能、もう一方は確率駆動で高いリアリズムを持ちます。両者の融合により、生成されるコンテンツは美しく、リアルでありながら完全に制御可能です。
構造化情報と生成式AIの融合は、さまざまな産業で繰り返し起こるでしょう。構造化データは信頼できるAIの基盤です。
構造化データと非構造化データプラットフォーム
次の図は少し衝撃を与えるかもしれませんが、どうか最後までお聞きください。
構造化データ—SQL、Spark、Pandas、Velox、Snowflake、Databricks、Amazon EMR、Azure Fabric、Google BigQueryなどの重要なプラットフォーム—はすべてデータフレーム(Data Frame)を扱います。これらのデータフレームは巨大なスプレッドシートの本質であり、すべてのビジネス情報を保持し、企業の計算の「基準事実」です。
AI時代において、これらの構造化データはAIによって高速に呼び出される必要があり、極限まで加速されなければなりません。将来のAIエージェントも、広く構造化データベースを利用するでしょう。
一方、非構造化データは世界の情報の大部分を占めます。ベクトルデータベース、PDF、動画、音声などです。世界中で毎年生成される情報の約90%は非構造化データです。かつてはほとんど役に立たず、ファイルシステムに保存しても検索やクエリはできませんでした。
しかし今、AIがこれを変えています。AIはマルチモーダル認識と理解の問題を解決し、PDFを読み取り、その意味を理解し、より大きな構造に埋め込むことが可能になっています。
これに対応し、英偉達は二つの基盤ライブラリを作成しました。
cuDF:データフレームと構造化データの高速化
cuVS:ベクトルストア、セマンティックデータ、非構造化AIデータの高速化
これらのプラットフォームは、今後最も重要な計算基盤の一つとなるでしょう。
本日、いくつかの協力関係を正式に発表します。
英偉達のコア戦略:垂直統合と水平開放
英偉達は、世界初の垂直統合かつ水平開放の計算企業です。
高速計算は単なるチップやシステムの問題ではなく、アプリケーションの加速にあります。各分野で顕著な加速とコスト削減を実現するには、アプリ、分野、アルゴリズムを深く理解し、あらゆる展開シナリオに落とし込む必要があります—データセンター、クラウド、ローカル、エッジ、ロボットシステムなど。
これが、英偉達が垂直分野を深く掘り下げる理由です。私たちはアルゴリズムの理解を基に、それを計算プラットフォームに統合し、世界中に開放しています。
今回のGTCでは、以下の分野をほぼ網羅しています。
本大会では、100のライブラリと約40のモデルのアップデートを発表します。これらは、計算プラットフォームを活性化し、実問題解決の鍵となるコア資産です。
中でも最も重要なライブラリの一つはcuDNN(CUDA深層ニューラルネットワークライブラリ)であり、これが人工知能を根底から革新し、現代AIの爆発を引き起こしました。
推論の転換点
過去2年で何が起きたのか?三つの大きな出来事がこの変化を促しました。
ChatGPTと生成式AIの時代の幕開け(2022年末から2023年)。AIは認識・理解だけでなく、翻訳・創作も可能にし、新たなコンテンツを生成します。生成式計算は、コンピュータの構造と構築論を根本的に変えました。
推論AIの台頭(o1およびo3モデル)。推論AIはモデルに反省・計画をさせ、複雑な問題を処理可能なステップに分解し、信頼性を高め、事実に根ざした動作を可能にします。これによりChatGPTの利用が急増し、入力・出力トークンの計算量も大幅に増加しました。
Claude CodeとAgentic AIの誕生。これは最初の真の意味でのAgenticモデルであり、ファイルの読み取り、コードの作成、コンパイル、テスト、評価、最適化を行います。Claude Codeはソフトウェアエンジニアリングを根底から革新し、英偉達のエンジニア全員がAIエージェントを使ったプログラミングを行っています。
AIは、「認識」から「生成」、「生成」から「推論」、「推論」から「実行」へと進化してきました。今やAIは、実質的な仕事をこなせる段階にあります。
推論の転換点は到来しています。AIが思考・実行・読み取り・推論を行うたびに推論(Inference)が必要となり、トークン生成の需要は爆発的に増加しています。過去2年で、単一作業の計算需要は約10,000倍、利用量は約100倍に増え、総需要は約100万倍に達しています。
5000億から1兆ドルへ
昨年のGTCで、私たちは2026年までにBlackwellとRubinに対し、約5000億ドルの高確信度需要が見込まれると述べました。
そして今年のGTCからちょうど1年後、今の状況を見て明確に言えることは、少なくとも2027年までに需要は1兆ドルに達するということです。
さらに、実際の計算需要はこれをはるかに超えると確信しています。
昨年は英偉達の推論の年でした。私たちは、トレーニングと後トレーニングだけでなく、AIライフサイクルのすべての段階で卓越性を追求し、インフラ投資の長期的価値を最大化しました。
また、Anthropicが英偉達を選び、Meta SLも英偉達を採用したことを喜ばしく思います。オープンソースモデルは最前線に近づき、あらゆる場所で使われています。英偉達は、言語、生命科学、コンピュータグラフィックス、コンピュータビジョン、音声、タンパク質・化学、ロボットなど、すべてのAI分野において、エッジからクラウドまで全シナリオをカバーできる唯一の計算プラットフォームです。
私たちの「移行性(Fungibility)」アーキテクチャは、AIインフラ構築のコスト最小化と信頼性最大化を実現します。数兆ドルのインフラ投資において、完全な信頼を持って展開できる唯一のプラットフォームです。
現在、私たちのビジネスの60%は大手クラウドサービス事業者から、残りの40%は地域クラウド、主権クラウド、企業、産業、ロボット、エッジ、スーパーコンピューティングなど多岐にわたります。この多様性こそがレジリエンスの源泉です。AIはもはや単一のアプリケーションではなく、真の計算プラットフォームの変革です。
推論性能の革新
私たちは推論最適化において根本的な突破を達成しました。
これは史上最も包括的なAI推論性能評価(Semi Analysisによる)です。評価軸は以下の通りです。
縦軸(ワットあたりトークン数):スループットを示す。各データセンターは電力制約を受けており、1GWの工場は2GWにはできません。限られた電力内で最大のトークン出力を追求します。
横軸(推論速度/トークンレート):インタラクティブ性とAIの「知性」を示す。速度が速いほど、モデルは大きく、コンテキストも長く、思考も深くなり、「賢い」ことになります。
結果は衝撃的です。
Hopper H200からGrace Blackwellまで、ムーアの法則は約1.5倍の向上を予測していましたが、実際にはワットあたり性能は35倍に達しました。Semi AnalysisのDylan Patelは、私の報告は保守的すぎるとさえ指摘し、実際には50倍の向上だと述べています。
これは、英偉達の各トークンコストが世界最安であることを意味します。1GWのデータセンター建設コストは約400億ドル(15年償却)であり、いずれにせよこの固定費を支払う必要があります。そのため、最も性能の高い計算システムを導入し、最低のトークンコストを実現しなければなりません。これにおいて、英偉達は無敵です。
Fireworks AIを例に取ると、ソフトウェアを更新しただけで、同じシステムのトークンレートは約700 tokens/秒からほぼ5,000 tokens/秒に7倍向上しました。これが、極致の協調設計の威力です。
トークン工場のビジネスロジック
今後、すべてのクラウドサービス事業者やAI企業は、トークン工場の視点から自社のビジネスを見直すでしょう。異なるトークンレートは、サービスレベルと価格設定に直結します。
例としてGrace Blackwellを挙げると、Hopperと比較して、最も商業価値の高いサービス層でスループットは35倍向上し、収益性が大きく向上します。全体のデータセンター収益も約5倍に増加します。
Vera Rubin:次世代アーキテクチャ
今や、単なるチップではなく、システム全体を示すのがVera Rubinです。
Vera Rubinは、Agenticシステム向けに設計されており、その核心は次の通りです。
これに応えるため、私たちは新たなVera CPUを開発しました。LPDDR5を採用した世界唯一のデータセンター用CPUで、シングルスレッド性能、データ処理能力、エネルギー効率のすべてにおいて卓越しています。
Vera Rubinシステムの主な特徴:
各種CPUも量産段階に入り、数十億ドル規模の独立事業となる見込みです。
Rubin Ultra(スーパー版):
技術ロードマップ:
Grok買収と異種推論の突破
私たちはGrokの技術チームを買収し、技術ライセンスを得て深く統合しています。
Grokプロセッサの特徴:
ただし、制約もあります。Grokチップは500MBのストレージしか持たず(Rubinは288GB)、大規模モデルのパラメータやKVキャッシュを格納できません。これがスケールの制約でした。
そこで、私たちは革新的なアイデアを思いつきました。
Dynamo:推論のデカップリングフレームワーク
私たちはDynamoソフトウェアを開発し、推論フローを再構築しました。
二つの異なる処理系—一つは高スループット向け、もう一つは低遅延向け—をDynamoで密接に連携させ、遅延を約50%削減。
結果、最も商業価値の高いサービス層で性能は35倍向上し、これまでにない推論性能の新たな層を切り開きました。
Grok LP 30はサムスンの委託生産で、2026年第3四半期から出荷開始予定です。
Grok最適展開戦略:
AI工場の規模と展望
1GW規模の工場では、上記のアーキテクチャ最適化により、トークン生成速度は2200万から7億へと350倍向上します。
これが、極致の協調設計の力です。垂直統合と水平開放により、すべての人がこの成果を享受できます。
AI工場の規模拡大に伴い、重要な課題も浮上しています。データセンター内のさまざまな技術供給者はこれまで互いに接触せず、独立して開発してきたため、多くのエネルギー浪費が生じていました。
そこで、私たちは英偉達DSXプラットフォームを作成しました。Omniverseを基盤に、すべてのパートナーが仮想空間で1GW級AI工場を共同設計できるようにします。機械、熱管理、電気、ネットワークの全システムシミュレーションを行い、電力網とリアルタイムで連携し、Max-Q技術で動的に電力と冷却を最適化します。
このプラットフォームだけでも、約2倍の効率向上をもたらすと信じています。兆ドル規模の投資において、これは非常に大きな価値です。
さらに、英偉達は宇宙にも進出します。Thorチップは放射線認証を取得し、衛星に搭載済みです。私たちはVera Rubin Space-1を開発中で、宇宙空間にデータセンターを構築します(放射線冷却の技術的課題を解決する必要があります)。
OpenClaw:AIエージェントのオペレーティングシステム
次に、重要な新発見についてお話しします。
Peter SteinbergerはOpenClawというソフトウェアを開発しました。これは史上最も人気のあるオープンソースプロジェクトとなり、わずか数週間でLinuxの30年の普及を超えました。
OpenClawは何か?それはエージェントシステムであり、
要するに、OpenClawはエージェント型コンピュータのOSです。Windowsがパーソナルコンピュータを可能にしたように、OpenClawは個人のエージェントを可能にします。
各企業の最重要課題は、「あなたのOpenClaw戦略は何か?」です。
かつて各社がLinux戦略、HTTP/HTML戦略、Kubernetes戦略を持ったように、今やすべての企業がOpenClaw戦略とエージェントシステム戦略を持つ必要があります。
企業ITのパラダイムシフト:
しかし、企業内のエージェントシステムには重大なセキュリティリスクがあります。敏感情報にアクセスし、コードを実行し、外部と通信できるためです。これに対し、Peter Steinbergerと協力し、世界最高峰のセキュリティ専門家とともに、OpenShellセキュリティ技術を基盤としたOpenClaw Enterprise版を開発しました。策略エンジン、ネットワークバリヤ、プライバシールーターを備えた企業向けの安全なアーキテクチャで、「NemoClaw」と名付け、直接ダウンロードして利用可能です。
英偉達のオープンモデル計画
英偉達は、すでに各AI分野の最先端モデルでリーダーシップを確立しています。
本日、私たちはNemotron連盟を正式に設立し、以下の企業と協力してNemotron 4を共同開発します。
これらの企業は、NemoClawのリファレンス設計、英偉達のエージェントAIツールキット、全シリーズのオープンモデルを深く統合し、自社製品・サービスに展開しています。
物理AIとロボット
デジタルエージェントに加え、私たちは長年にわたり物理AIとロボット分野にも取り組んできました。
ロボットシステム向けに、三つの重要な計算機を開発しています。
SiemensやCadenceなど多くのパートナーと深く連携し、以下の大規模協力も発表しました。
自動運転分野:自動運転の「ChatGPT時代」が到来。新たにBYD、Hyundai、Nissan、Geelyの4社と提携し、毎年1800万台の車を英偉達のRoboTaxi Readyプラットフォームに接続。さらにUberとも大規模協力を締結し、複数都市でRoboTaxi車両を展開し、ネットワークに接続します。
産業ロボット分野:ABB、Universal Robots、KUKA、Caterpillarなどと協力し、物理AIモデルとシミュレーションシステムを世界の製造ラインに展開。
通信分野:T-Mobileも参加。未来の基地局は英偉達のAerial AI RANに進化し、流量推論やビームフォーミングの自動調整を行い、信号品質向上と省エネを実現。
最後に、Disneyと共同開発した「オラフ」ロボットを披露。Jetsonプラットフォーム、Omniverseトレーニング環境、DisneyやDeepMindと共同開発のNewton物理解法器(英偉達Warp上で動作)を用い、リアルな物理世界での適応運動を実現。これは物理AIの素晴らしい実例であり、未来のテーマパークのライブプレビューでもあります。
まとめ
今回のGTCは、以下の四つのコアテーマを中心に展開しました。
皆さまのGTC参加に感謝し、成功を祈ります。