NVIDIA 執行長黃仁勳在 All-In 專訪中公開稱讚去中心化 AI 網路 Bittensor,指其 Subnet 3 以分散式方式訓練完成一個大型語言模型,屬「相當了不起的技術成就」。受此訊息帶動,TAO 在影片發布後 24 小時內上漲約 20%,交易量突破 4.71 億美元。
(前情提要:Alpha 掘金》趙長鵬 YZi Labs 投資 TAO 生態「Tensorplex」Bittensor 子網代幣飆 2 倍)
(背景補充:AI 概念幣新王「Bittensor」在憋什麼大招?詳解 34 個子網全景圖與未來展望)
在最新一期 All-In 播客中,Chamath Palihapitiya 率先提起 Bittensor,黃仁勳隨即接話,給出了一段罕見的正面評價。
他表示:「Bittensor Subnet 3 成功訓練了一個擁有 40 億引數的 Llama 模型,整個過程完全是分散式的,由一群人貢獻出他們閒置的計算能力來共同完成。他們能夠有狀態地執行並管理整個訓練過程,我認為這算是一項相當了不起的技術成就。」
黃仁勳引述的引數數字有所出入,實際上 Bittensor Subnet 3 完成的模型是 Covenant-72B,引數量高達 720 億,是該網路迄今分散式預訓練規模最大的 LLM,MMLU 得分 67.1。
在同一集 Podcast 裡,黃仁勳也對外界常見的「開源 vs. 閉源」框架提出不同看法,他說「These two things are not A or B; it’s A and B.」去中心化基礎設施和專有模型可以並行,彼此不排斥。
這番話被市場解讀為對分散式 AI 發展路徑的背書。TAO 在影片發布後 24 小時內急升約 20%,截稿前現價大約 300 美元,單日交易量達 4.71 億美元,創近期新高。
Bittensor 近期動作頻頻。趙長鵬旗下 YZi Labs 已投資 TAO 生態專案 Tensorplex,對應子網代幣一度飆漲逾 2 倍。黃仁勳這次公開表態,等於替整個 TAO 生態再添一把火,也讓外界對分散式 AI 訓練的可行性有了更多具體想像。