本地 AI 模型運行工具 Ollama 於 4/24 在 X 平台公開宣布,將中國 AI 新創 DeepSeek 前一日釋出的 V4-Flash 模型納入 Ollama Cloud 服務。推論主機位於美國,並提供三組一鍵指令讓開發者直接把 V4-Flash 接到 Claude Code、OpenClaw 與 Hermes 等主流 AI 程式開發工作流中。
deepseek-v4-flash 现在可在 Ollama 的云端使用!托管在美国。使用 Claude Code 试试:ollama launch claude –model deepseek-v4-flash:cloud 使用 OpenClaw 试试:ollama launch openclaw –model deepseek-v4-flash:cloud 使用 Hermes 试试:ollama launch hermes…
— ollama (@ollama) 2026 年 4 月 24 日
DeepSeek V4 预览:两款尺寸、1M 上下文
根据 DeepSeek 官方 API 文档 4/24 发布公告,DeepSeek-V4 Preview 分两款尺寸同步开源发布:
型号 总参数 活跃参数 定位 DeepSeek-V4-Pro 1.6 兆 490 亿 目标对标闭源旗舰 DeepSeek-V4-Flash 2,840 亿 130 亿 快速、高效、低成本
两款均采用 Mixture-of-Experts(MoE)架构,原生支持 100 万 tokens 长上下文。DeepSeek 在公告中宣告:“1M 上下文现在是所有 DeepSeek 官方服务的默认值。”
架构创新:DSA 稀疏注意力+Token-wise 压缩
V4 系列核心的架构改进包含:
Token-wise 压缩搭配 DSA(DeepSeek Sparse Attention)——针对超长上下文下的推理运算与 KV 缓存内存大幅削减成本
相较 V3.2,V4-Pro 在 100 万 tokens 上下文场景下,每个 token 推理仅需 27% 的 FLOPs、KV cache 仅需 10%
支持 Thinking 与 Non-Thinking 双模式切换,对应不同任务的深度推理需求
API 层面同时兼容 OpenAI ChatCompletions 与 Anthropic APIs 规格,降低既有 Claude/GPT 客户端的迁移成本。
Ollama Cloud 的三组一键启动指令
Ollama 官方模型页以模型标识符 deepseek-v4-flash:cloud 提供云端推理服务,开发者可用以下三组指令直接把 V4-Flash 串到既有 AI 程式开发工作流:
工作流 指令 Claude Code ollama launch claude --model deepseek-v4-flash:cloud OpenClaw ollama launch openclaw --model deepseek-v4-flash:cloud Hermes ollama launch hermes
值得留意的是“美国主机”这个信号。对企业与欧美开发者而言,使用中国开源模型时最大疑虑是数据回传中国;Ollama 选择把 V4-Flash 的推理层放在美国,意味着 prompt 与程式码内容不离开美国司法管辖,降低合规与数据主权层面的摩擦。
为什么这件事对 AI 产业重要
把 DeepSeek V4-Flash、Ollama Cloud、Claude Code 三个原本各自独立的生态接起来,产生三层意义:
成本路线:V4-Flash 的 130 亿活跃参数远小于 GPT-5.5(输入 5 美元、输出 30 美元/百万 tokens)与 Claude Opus 4.7 等旗舰,对于中小型代理任务、批次摘要、测试自动化等用途,单位成本有望显著下降
地缘风险的中介层:Ollama 作为美国注册的中介推理层,让中国原生模型的企业用户得以绕开“资料直接送 DeepSeek 北京服务器”的疑虑,是开源模型在国际扩散的实务解法
开发者即刻切换:Claude Code 与 OpenClaw 的用户可在命令列一行切模型,不必改 prompt 结构或 IDE 设置,对于“多模型回归测试”“成本敏感的批次任务”使用场景是真正的生产力释放
与先前 DeepSeek 新闻的联动
这次 V4 发布与 Ollama Cloud 快速整合,发生在 DeepSeek 正在洽谈首轮外部融资、估值 200 亿美元的背景下。V4 是 DeepSeek 公司资本化过程中的关键产品证明;以开源策略+国际主机合作伙伴快速扩散,则是其在建立开发者生态垄断前的速度战。对 OpenAI 与 Anthropic 而言,一个可以在 Claude Code 内部一行切换的开源替代模型,是 agent 工作流主导权争夺的新变量。
这篇文章 DeepSeek V4-Flash 登上 Ollama Cloud、美国主机:Claude Code、OpenClaw 一键串接 最早出现在 鏈新聞 ABMedia。
相关文章