HBM 後 AI 記憶體瓶頸是 HBF?圖靈獎得主 David Patterson:推論將重新定義儲存架構

鏈新聞abmedia

AI 晶片競賽過去兩年幾乎都圍繞在 HBM,但隨著 AI 應用從模型訓練走向大規模推論,下一個供給瓶頸可能不再只是 HBM,而是 HBF(High Bandwidth Flash,高頻寬快閃記憶體)。圖靈獎得主、UC Berkeley 教授 David Patterson 於 4 月 30 日在美國舊金山表示,他認為,HBF 很可能成為下一個需求快速上升、甚至形成新瓶頸的關鍵記憶體技術。

(輝達 Vera Rubin 有何改變?解析記憶體戰國時代:SK 海力士、三星、美光、SanDisk)

圖靈獎得主 David Patterson 為何看好 HBF

AI 記憶體的討論幾乎都圍繞在 HBM(高頻寬記憶體)展開,但隨著 AI 應用從模型訓練走向大規模推論,下一個供給瓶頸可能不再只是 HBM,而是 HBF(High Bandwidth Flash,高頻寬快閃記憶體)。

Patterson 是電腦科學界重量級人物,被視為 RISC 架構的重要設計者之一。他在談到 HBM 之後的下一階段時指出,雖然 HBF 仍有不少技術挑戰需要解決,但 SK 海力士與 SanDisk 等企業正在推動的 HBF,具備「以較低功耗提供大容量」的特性,未來 AI 系統的核心變數,將不只是算力,而是資料能否被有效儲存、調度與供應。

HBF 是什麼?把 NAND Flash 疊起來,不是取代 HBM,而是分工

HBF 與 HBM 最大差異在於底層記憶體材料不同。HBM 是將 DRAM 垂直堆疊,用來提供 GPU、AI 加速器所需的高頻寬資料存取能力,主要負責「快速餵資料給運算單元」。HBF 則是將非揮發性記憶體 NAND Flash 進行堆疊,核心優勢不是極致速度,而是以較低成本、較低功耗提供更大的資料容量。

換句話說,HBM 解決的是 AI 運算過程中「速度」問題,HBF 解決的是 AI 系統越來越龐大的「容量」問題。這也是為什麼 HBF 並不是單純取代 HBM,而是與 HBM 形成新的記憶體分工。HBM 負責即時、高速的資料交換;HBF 則承擔大規模中間資料、上下文資料與推論過程中反覆調用資料的儲存需求。

AI 推論市場擴大,讓 HBF 需求浮上檯面

HBF 之所以在 2026 年受到更多關注,關鍵在於 AI 市場重心正從訓練逐步走向推論。AI 訓練是把大量資料餵給模型,讓模型學會參數與規律;AI 推論則是模型被訓練完成後,實際根據使用者輸入產生答案、執行任務、記住前後文並持續判斷的過程。

在推論場景中,AI 不只是一次性回答問題,而是要保留先前對話、工作脈絡、判斷結果、工具調用紀錄,甚至跨任務的中間資料。這些資料量龐大,而且需要被反覆讀取與更新。

問題在於,這些資料若全部放進 HBM,成本太高,容量也不現實。HBM 適合處理立即需要的高速資料,但不適合承擔所有推論過程中產生的上下文與中間狀態資料。當 AI Agent、長上下文模型、多模態推論與企業級 AI 工作流普及後,系統需要的不只是更快的記憶體,而是更大的高速資料池。這正是 HBF 被看好的原因。

SK 海力士與 SNDK 已推動標準化,2038 年 HBF 需求或超越 HBM

為了追求頻寬,SK 海力士與 SanDisk 合作開發 HBF。這是一種類似 HBM 的 3D 堆疊技術,但使用 NAND 晶圓,旨在提供比傳統 SSD 快數倍的吞吐量,專門服務於 AI 推論 。

韓國 KAIST 電機電子工程學系教授金正浩也曾在 2 月的 HBF 技術說明會中指出,PC 時代的核心是 CPU,智慧手機時代的核心是低功耗,而 AI 時代的核心則是記憶體。他將 HBM 與 HBF 的角色分得很清楚:決定速度的是 HBM,決定容量的是 HBF。金正浩更預測,自 2038 年開始,HBF 的需求可能超越 HBM。

這個判斷背後的邏輯是,AI 推論市場越大,模型所需處理的即時上下文、歷史資料與任務狀態就越龐大。若只靠 HBM 擴充,不但成本高昂,也會讓整體系統功耗與封裝壓力持續上升。HBF 若能在頻寬、封裝、耐用性與標準化上取得突破,就可能成為 AI 資料中心的新一代關鍵記憶體層。

從 HBM 到 HBF,AI 競賽從「算得快」走向「記得住、調得動」

過去市場談 AI 半導體,焦點多放在 GPU、先進製程與 HBM 供應。尤其在 Nvidia AI 伺服器需求暴增後,HBM 一度成為判斷 SK 海力士、三星、美光等記憶體廠競爭力的核心指標。但 Patterson 的說法提醒市場,AI 基礎設施的瓶頸正在變得更複雜。

當 AI 還處於大模型訓練競賽階段,重點是用更高頻寬的記憶體餵飽 GPU;但當 AI 進入大規模推論與 Agent 應用階段,問題會變成:模型如何長時間維持上下文?如何低成本保存任務狀態?如何讓資料在 GPU、HBM、SSD、Flash 與網路儲存之間更有效率地流動?

因此,下一階段的 AI 記憶體競賽,可能不再只是 HBM 產能之爭,而是整個記憶體階層的重組。HBM 仍然重要,因為它決定 AI 晶片能否高速運算;但 HBF 的出現,代表 AI 系統開始需要一種介於傳統儲存與高頻寬記憶體之間的新型資料層。它不一定最快,卻可能在容量、功耗與成本之間找到新的平衡。

這也意味著,AI 供應鏈的下一個關鍵詞,可能將從「高頻寬記憶體」延伸到「高頻寬快閃記憶體」。HBM 解決 AI 的即時運算瓶頸,而 HBF 則可能解決推論時代更龐大的資料記憶瓶頸。

這篇文章 HBM 後 AI 記憶體瓶頸是 HBF?圖靈獎得主 David Patterson:推論將重新定義儲存架構 最早出現於 鏈新聞 ABMedia。

免責聲明:本頁面資訊可能來自第三方,不代表 Gate 的觀點或意見。頁面顯示的內容僅供參考,不構成任何財務、投資或法律建議。Gate 對資訊的準確性、完整性不作保證,對因使用本資訊而產生的任何損失不承擔責任。虛擬資產投資屬高風險行為,價格波動劇烈,您可能損失全部投資本金。請充分了解相關風險,並根據自身財務狀況和風險承受能力謹慎決策。具體內容詳見聲明

相關文章

Anthropic 推 Claude Dreams:Agent 在工作之間自整理記憶、消除重複與矛盾

Anthropic 在 Code with Claude 大會公布 Dreams,讓 Claude Managed Agents 在多場會話間自動整理記憶、消除重複與矛盾、更新陳舊條目,輸出可審核的整理後記憶庫;輸入上限為 100 個 session 與 4,096 字元,非同步執行,數分鐘至數十分鐘完成,支援串流觀察。研究預覽需申請,暫只支援 claude-opus-4-7 與 claude-sonnet-4-6,正式上市未定。

鏈新聞abmedia1小時前

Anthropic 接 SpaceX 算力:拿下 Colossus 1 整座 22 萬 GPU、Claude 解除限額

Anthropic 宣布與 SpaceX 就 Colossus 1 資料中心達成算力合作,將動用逾22萬顆 Nvidia GPU、300MW以上容量,預計一個月內全部部署供 Anthropic 使用,提升 Claude、Code 的運算與體驗。同步放寬 Pro/Max/Team/Enterprise 的每5小時用量上限、取消尖峰限額,並提高 Opus API 速率;亞洲歐洲基礎設施同步擴張,未來另有「軌道 AI 計算」等意向,尚未成約。

鏈新聞abmedia1小時前

Coinbase 工程師:AI 代理可能會顛覆網路廣告模式

Coinbase 工程師 Erik Reppel 表示,人工智慧代理(AI agents)可能從根本上削弱仰賴網路廣告的商業模式。根據 Reppel 的說法,網路經濟高度仰賴由人類使用者產生的廣告收入,但 AI 代理會繞過這套系統

Crypto Frontier2小時前

Anthropic 在與 SpaceX 合作取得 300MW 產能後,將 Claude Code 的速率限制加倍

根據 Odaily,Anthropic 已與 SpaceX 簽署協議,以存取 Colossus 1 資料中心的全部運算能力,確保在一個月內獲得超過 300 百萬瓦的新產能,以及超過 220,000 台 NVIDIA GPU。自即日起,Claude Code 的 Pro 五小時速率限制,

GateNews2小時前

OpenAI 公布 MRC 超級電腦網路協議!攜手輝達、AMD、微軟打造 Stargate 基礎設施

OpenAI 公布 AI 超級電腦網路協議 MRC,與 AMD、Microsoft、NVIDIA 等合作並開源於 OCP。MRC 將資料分拆同時走多條路徑、在微秒級避障、降低壅塞,維持 GPU 同步,解決大型訓練叢集的傳輸瓶頸。Stargate 德州 Abilene 等基地已部署 800Gb/s 介面並投入實際訓練。

鏈新聞abmedia3小時前
留言
0/400
暫無留言