比特幣訓練里程碑引起 Chamath Palihapitiya 和 Nvidia 執行長黃仁勳的關注

Coinpedia
TAO-0.97%

曾經只在加密圈子內的去中心化人工智慧實驗,近日獲得Nvidia執行長黃仁勳的公開肯定,暗示分散式模型訓練可能正逐步邁向主流。

開源AI動能升溫,獲黃仁勳背書

Chamath Palihapitiya 在 All-In Podcast 節目中 spotlight 了 Bittensor 的 Covenant-72B,將其描述為去中心化人工智慧(AI)從理論走向實踐的具體範例。Bittensor 作為一個去中心化、區塊鏈驅動的網絡,建立了一個點對點的市場,供機器學習模型與AI計算資源交換與激勵。

Palihapitiya 用淺顯的語言描述這個努力:「他們成功訓練出一個擁有40億參數的 LLaMA 模型,完全分散式,並由一群獨立貢獻者提供額外計算資源。」他稱之為「一個相當瘋狂的技術成就」。

這個比喻用一個熟悉的例子來說明:「有一些隨機的人,每個人都得到一點份額」,他補充提到早期利用閒置硬體的分散式計算專案。

黃仁勳並未否定這個想法,而是將視野擴展到更廣泛的AI市場,暗示去中心化與專有方法並非互斥。「這兩者不是A或B,而是A和B,」黃說。「這是毫無疑問的。」

這雙軌願景反映出AI領域內日益擴大的分歧與重疊。一方面是像ChatGPT、Claude和Gemini這樣的封閉、經過高度打磨的系統;另一方面則是開放權重與去中心化模型,允許開發者與組織根據特定需求進行定制。

黃仁勳明確表示,他認為兩者都很重要。「模型是一項技術,而非產品,」他指出,大多數用戶仍將依賴經過打磨的通用系統,而非從零建立自己的模型。

同時,他也提到某些產業的定制化不是可選的。「有許多產業,其專業知識……必須以他們能掌控的方式來捕捉,」黃解釋,並補充說:「這只能來自開放模型。」

這番話正好切中 Bittensor 的核心。Covenant-72B 由其 Subnet 3(Templar)開發,代表迄今為止最大規模的去中心化訓練之一,協調超過70名貢獻者,透過標準網路連線在沒有中央權威的情況下運作。

技術層面來看,這個模型突破了界限。它擁有72億參數,訓練資料約1.1兆個標記,並利用壓縮通訊協議與分散式資料並行等創新技術,使訓練在傳統資料中心之外也能實現。

性能指標顯示,它不僅僅是實驗性質。基準測試結果使其與成熟的集中式模型競爭,這也解釋了為何該專案吸引了超越加密原生受眾的關注。

市場也注意到了這一點。宣布後,該專案的代幣 TAO 自 Palihapitiya 和 Huang 的影片在社交媒體傳播後,已上漲24%。

儘管如此,黃仁勳的評論暗示,真正的故事不是顛覆,而是共存。專有AI系統可能仍將在一般用戶中佔主導地位,而開放與去中心化模型則在專業、成本敏感或主權驅動的應用中扮演角色。

對於新創公司,黃仁勳提出一個務實的策略:「先開放,再加入專有優勢。」「我們現在投資的每一家新創公司,都是先開源,然後再走向專有模型,」他說。

換句話說,AI的未來可能不屬於單一架構或理念,而是屬於那些能同時駕馭兩者,並懂得何時使用各自優勢的人。

常見問題 🔎

  • Bittensor 的 Covenant-72B 是什麼?

一個擁有72億參數的語言模型,透過去中心化的貢獻者網絡訓練,沒有中央基礎設施。

  • 黃仁勳對去中心化AI有何看法?

他表示開放與專有AI模型將共存,描述這種關係為「A 和 B」,而非二者的選擇。

  • 為何這個發展很重要?

它展示了大型AI模型可以在傳統資料中心之外進行訓練,挑戰了對基礎設施的既有假設。

  • 這對AI產業有何影響?

它支持一個混合的未來,集中平台與去中心化模型在不同產業中扮演不同角色。

查看原文
免責聲明:本頁面資訊可能來自第三方,不代表 Gate 的觀點或意見。頁面顯示的內容僅供參考,不構成任何財務、投資或法律建議。Gate 對資訊的準確性、完整性不作保證,對因使用本資訊而產生的任何損失不承擔責任。虛擬資產投資屬高風險行為,價格波動劇烈,您可能損失全部投資本金。請充分了解相關風險,並根據自身財務狀況和風險承受能力謹慎決策。具體內容詳見聲明
留言
0/400
暫無留言