DeepSeek V4-Flash 登上 Ollama Cloud、美國主機:Claude Code、OpenClaw 一鍵串接

本地 AI 模型運行工具 Ollama 於 4/24 在 X 平台公開宣布,將中國 AI 新創 DeepSeek 前一日釋出的 V4-Flash 模型納入 Ollama Cloud 服務。推論主機位於美國,並提供三組一鍵指令讓開發者直接把 V4-Flash 接到 Claude Code、OpenClaw 與 Hermes 等主流 AI 程式開發工作流中。

deepseek-v4-flash is now available on Ollama’s cloud! Hosted in the US. Try it with Claude Code: ollama launch claude –model deepseek-v4-flash:cloud Try it with OpenClaw: ollama launch openclaw –model deepseek-v4-flash:cloud Try it with Hermes: ollama launch hermes…

— ollama (@ollama) April 24, 2026

DeepSeek V4 Preview:兩款尺寸、1M 脈絡

根據 DeepSeek 官方 API 文件 4/24 發布公告,DeepSeek-V4 Preview 分兩款尺寸同步開源釋出:

型號 總參數 活躍參數 定位 DeepSeek-V4-Pro 1.6 兆 490 億 目標對標閉源旗艦 DeepSeek-V4-Flash 2,840 億 130 億 快速、高效、低成本

兩款均採 Mixture-of-Experts(MoE)架構,原生支援 100 萬 tokens 長脈絡。DeepSeek 在公告中宣告:「1M 脈絡現在是所有 DeepSeek 官方服務的預設值。」

架構創新:DSA 稀疏注意力+Token-wise 壓縮

V4 系列核心的架構改進包含:

Token-wise 壓縮搭配 DSA(DeepSeek Sparse Attention)——針對超長脈絡下的推論運算與 KV 快取記憶體大幅削減成本

相較 V3.2,V4-Pro 在 100 萬 tokens 脈絡情境下,單 token 推論僅需 27% 的 FLOPs、KV cache 僅需 10%

支援 Thinking 與 Non-Thinking 雙模式切換,對應不同任務的深度推理需求

API 層面同時相容 OpenAI ChatCompletions 與 Anthropic APIs 規格,降低既有 Claude/GPT 客戶端的遷移成本。

Ollama Cloud 的三組一鍵啟動指令

Ollama 官方模型頁以模型識別符 deepseek-v4-flash:cloud 提供雲端推論服務,開發者可用以下三組指令直接把 V4-Flash 串到既有 AI 程式開發工作流:

工作流 指令 Claude Code ollama launch claude --model deepseek-v4-flash:cloud OpenClaw ollama launch openclaw --model deepseek-v4-flash:cloud Hermes ollama launch hermes

值得留意的是「美國主機」這個訊號。對企業與歐美開發者而言,使用中國開源模型時最大疑慮是資料回傳中國;Ollama 選擇把 V4-Flash 的推論層放在美國,意味著 prompt 與程式碼內容不離開美國司法管轄,降低合規與資料主權層面的摩擦。

為什麼這件事對 AI 產業重要

把 DeepSeek V4-Flash、Ollama Cloud、Claude Code 三個原本各自獨立的生態接起來,產生三層意義:

成本路線:V4-Flash 的 130 億活躍參數遠小於 GPT-5.5(輸入 5 美元、輸出 30 美元/百萬 tokens)與 Claude Opus 4.7 等旗艦,對於中小型代理任務、批次摘要、測試自動化等用途,單位成本可望顯著下降

地緣風險的中介層:Ollama 作為美國註冊的中介推論層,讓中國原生模型的企業用戶得以繞開「資料直接送 DeepSeek 北京伺服器」的疑慮,是開源模型在國際擴散的實務解法

開發者即時切換:Claude Code 與 OpenClaw 的用戶可在命令列一行切模型,不必改 prompt 結構或 IDE 設定,對於「多模型回歸測試」「成本敏感的批次任務」使用場景是真正的生產力釋放

與先前 DeepSeek 新聞的連動

這次 V4 釋出與 Ollama Cloud 快速整合,發生在 DeepSeek 正在洽談首輪外部融資、估值 200 億美元的背景下。V4 是 DeepSeek 公司資本化過程中的關鍵產品證明;以開源策略+國際主機合作夥伴快速擴散,則是其建立開發者生態壟斷前的速度戰。對 OpenAI 與 Anthropic 而言,一個可以在 Claude Code 內部一行切換的開源替代模型,是 agent 工作流主導權爭奪的新變量。

這篇文章 DeepSeek V4-Flash 登上 Ollama Cloud、美國主機:Claude Code、OpenClaw 一鍵串接 最早出現於 鏈新聞 ABMedia。

免責聲明:本頁面資訊可能來自第三方,不代表 Gate 的觀點或意見。頁面顯示的內容僅供參考,不構成任何財務、投資或法律建議。Gate 對資訊的準確性、完整性不作保證,對因使用本資訊而產生的任何損失不承擔責任。虛擬資產投資屬高風險行為,價格波動劇烈,您可能損失全部投資本金。請充分了解相關風險,並根據自身財務狀況和風險承受能力謹慎決策。具體內容詳見聲明

相關文章

Megazone Cloud 與 AWS 合作,在韓國推出 AI 訓練計畫

根據該公司公告,總部位於南韓的雲端服務公司 Megazone Cloud 於 5 月 4 日獲得 Amazon Web Services 選為 AWS Agentic AI GameDay 在南韓的營運合作夥伴。該計畫是一場由 AWS 的生成式 AI 創新中心主導的實作式訓練活動,

Crypto Frontier36分鐘前

Solana 共同創辦人警告:AI 可能在 2026 Breakpoint 破解後量子密碼學

根據 Solana 聯合創辦人 Anatoly Yakovenko 的說法,他在阿姆斯特丹舉行的 2026 Solana Breakpoint 會議上表示,人工智慧對區塊鏈安全構成的生存性威脅比量子電腦更大。Yakovenko 警告稱,AI 模型可能會利用在 po 中的微妙數學模式。

GateNews56分鐘前

從馬桶到調味料業者:AI 供應鏈價值外溢,助攻了哪些公司?

人工智慧浪潮的紅利持續蔓延,從輝達到台積電等科技巨頭,如今生產馬桶的日本公司與一家以味精起家的食品集團,都悄然成為這波 AI 基礎建設熱潮中的隱形贏家。它們的崛起曝光了一個關鍵趨勢:AI 供應鏈的價值外溢效應,早已深入滲透至傳統製造業,迸發更多元的轉型商機。 馬桶製造商 TOTO:陶瓷技術意外命中晶圓製程需求 日本衛浴大廠 TOTO 以高品質馬桶蓋聞名全球,深耕陶瓷製造逾 40 年。然而,就是這項看似與科技毫不相關的傳統工藝,讓它在半導體製程中找到了全新舞台。 TOTO 日前宣布將利用自身陶瓷技術專業,生產用於晶片製造的靜電吸盤(Electrostatic Chuck),消息一出,股價單

鏈新聞abmedia2小時前

聯發科 邀聘 前 台積電 高層主管 以擴大全其人工智慧晶片版圖

根據路透社報導,台灣晶片設計商聯發科於 5 月 4 日委任前台灣積體電路製造公司(TSMC)高層道格拉斯・俞(Douglas Yu)為兼任顧問。此舉支持聯發科擴大進軍 AI 晶片市場,並推進其封裝技術。 Advanced

Crypto Frontier2小時前

豆包於 5 月 4 日推出三種付費訂閱方案,月付最低 68 元

根據 PANews,豆包於 5 月 4 日宣布推出付費訂閱方案以補足其免費服務。三個方案分別是:標準方案每月 68 元(每年 688 元)、進階方案每月 200 元(每年 2,048 元)、專業方案每月 500 元(每年 5,088 元)。豆包說

GateNews2小時前

OpenAI 與 Yubico 合作,推出客製化硬體安全金鑰

根據 Yubico 的說法,OpenAI 與總部位於斯德哥爾摩的安全金鑰製造商合作,透過其「進階帳戶安全」計畫提供客製化 YubiKeys。該計畫鎖定遭受釣魚與帳戶接管攻擊風險較高的使用者。 該套裝包含供行動裝置使用的 YubiKey C NFC 以及一款 YubiKey 5Ci。

GateNews3小時前
留言
0/400
暫無留言