福利加码,Gate 廣場明星帶單交易員三期招募開啟!
入駐發帖 · 瓜分 $30,000 月度獎池 & 千萬級流量扶持!
如何參與:
1️⃣ 報名成為跟單交易員:https://www.gate.com/copytrading/lead-trader-registration/futures
2️⃣ 報名活動:https://www.gate.com/questionnaire/7355
3️⃣ 入駐 Gate 廣場,持續發布交易相關原創內容
豐厚獎勵等你拿:
首發優質內容即得 $30 跟單體驗金
每雙周瓜分 $10,000U 內容獎池
Top 10 交易員額外瓜分 $20,000U 登榜獎池
精選帖推流、首頁推薦、周度明星交易員曝光
詳情:https://www.gate.com/announcements/article/50291
Tether 發布跨平台 BitNet LoRA 框架,十億參數模型可在消費級設備完成微調
Techub News 消息,Tether 宣布推出 QVAC Fabric 中的跨平台 BitNet LoRA 微調框架,實現對 Microsoft BitNet(1-bit LLM)的訓練與推理優化。該框架顯著降低算力與內存需求,使十億參數級模型可在筆記本、消費級 GPU 及智能手機上完成訓練與微調。該方案首次實現 BitNet 模型在移動端 GPU(包括 Adreno、Mali 及 Apple Bionic)上的微調,測試顯示,125M 參數模型可在約 10 分鐘內完成微調,1B 模型約 1 小時級別完成,甚至在手機端可擴展至 13B 參數模型。此外,該框架支持 Intel、AMD 及 Apple Silicon 等異構硬體,並首次實現非 NVIDIA 裝置上的 1-bit LLM LoRA 微調。性能方面,BitNet 模型在移動 GPU 上的推理速度較 CPU 提升 2 至 11 倍,同時在顯存佔用上較傳統 16-bit 模型最高降低約 77.8%。Tether 表示,該技術有望打破對高端算力與雲端基礎設施的依賴,推動 AI 訓練向去中心化與本地化發展,並為聯邦學習等新型應用場景提供基礎。