Nvidia 加深在雲端AI領域的掌控 宣佈與AWS達成重大晶片交易

Decrypt

簡要

  • AWS 計劃到 2027 年部署約 100 萬台 Nvidia GPU。
  • 建設範圍涵蓋計算、網路和系統,以進行大規模 AI 運算。
  • 觀察人士表示,推理需求的上升正在重塑基礎設施和競爭格局。

Nvidia 將在 2027 年之前向 Amazon Web Services 供應大量 GPU,隨著雲端服務提供商擴展其 AI 基礎設施並滿足日益增長的需求。 AWS 本週早些時候宣布,計劃部署約 100 萬台 Nvidia GPU,作為其擴展 AI 基礎設施建設的一部分。Nvidia 一位高層在週四向 路透社 確認,這一部署預計將持續到 2027 年底。 從今年開始,這項計劃將在 AWS 全球雲區推行,並伴隨著與 Nvidia 在網路和其他基礎設施方面的擴展合作,以建立“能夠在複雜工作流程中自主推理、規劃和行動”的系統,AWS 表示,這是其在代理 AI 系統方面的努力。

 AWS 持續開發用於訓練和推理的 AI 芯片。這項合作暗示著對 AI 堆疊的需求可能正在轉變,同時越來越多的活動似乎與在實時服務中運行模型有關。 這筆交易正值美國檢方追查 Nvidia 芯片走私到中國的案件,將該公司的全球供應和控制再次置於審視之下。 自 2022 年以來,Nvidia 最先進的芯片一直受到嚴格控制,作為美國限制中國在高級計算和 AI 方面進展的更廣泛策略的一部分。

週四的發展更接近本土,可能幾乎會擴大這一差距。 節奏的變化 觀察人士表示,這筆交易的結構提供了有關需求增長方向和基礎設施變化速度的線索。 “ Nvidia 正在成為雲端服務提供商的基礎設施層,而不僅僅是他們的芯片供應商,” ZenGen Labs 策略與成長工作室的聯合創始人 Dermot McGrath 在 Decrypt 中表示。 這次交易中的芯片主要用於大規模運行 AI 模型,重點在於降低使用成本,McGrath 指出,推理現在約佔 AI 計算的三分之二,較 2023 年的約三分之一有所增加。 他補充說,預計到 2026 年,專注於推理的芯片市場將超過 500 億美元,引用 Deloitte 的預估。 AWS 可以在同一系統中同時使用 Nvidia 和自家芯片,為客戶提供比競爭對手更大的選擇空間,McGrath 解釋,這種彈性“是一個差異化因素”。 “現在 Nvidia 正在做同樣的事情,只是層級更低,涉及網路和機架架構,而不是一個程式模型,”他說。 推理芯片是設計用來實時運行訓練好的 AI 模型的處理器,而不需要重新訓練。

推理需求“推動長期承諾”以獲取更多計算能力,也促使雲端服務提供商與芯片製造商之間的關係更加緊密,Gather Beyond 的政策策略師兼創始人 Pichapen Prateepavanich 在 Decrypt 中表示。 “雲端服務提供商希望長期保持獨立,但短期內他們需要 Nvidia 來保持競爭力,”她指出,這創造了一種合作與競爭同時進行的動態。 不過,對 AI 基礎設施的控制也在改變。 AI 投資基金 Boardy Ventures 的交易合夥人 Berna Misa 在 Decrypt 中表示,這是一場“基礎設施翻轉”。 她說,Nvidia 正在將其完整堆疊嵌入到多年前運行專有設備的 AWS 數據中心中,涵蓋計算、網路和推理。 但儘管 AWS 正在開發自己的 AI 芯片,她解釋說,這“並不改變數學原理”,推理依賴堆疊中的多個組件,而 Nvidia 提供了其中的大部分。 “當你深入到客戶的堆疊中,轉換成本和由此產生的上下文層就成為護城河,”她說。

查看原文
免責聲明:本頁面資訊可能來自第三方,不代表 Gate 的觀點或意見。頁面顯示的內容僅供參考,不構成任何財務、投資或法律建議。Gate 對資訊的準確性、完整性不作保證,對因使用本資訊而產生的任何損失不承擔責任。虛擬資產投資屬高風險行為,價格波動劇烈,您可能損失全部投資本金。請充分了解相關風險,並根據自身財務狀況和風險承受能力謹慎決策。具體內容詳見聲明
留言
0/400
暫無留言