DeepSeek V4-Flash 登上 Ollama Cloud、美國主機:Claude Code、OpenClaw 一鍵串接

本地 AI 模型運行工具 Ollama 於 4/24 在 X 平台公開宣布,將中國 AI 新創 DeepSeek 前一日釋出的 V4-Flash 模型納入 Ollama Cloud 服務。推論主機位於美國,並提供三組一鍵指令讓開發者直接把 V4-Flash 接到 Claude Code、OpenClaw 與 Hermes 等主流 AI 程式開發工作流中。

deepseek-v4-flash 现在可在 Ollama 的云端使用!托管在美国。使用 Claude Code 试试:ollama launch claude –model deepseek-v4-flash:cloud 使用 OpenClaw 试试:ollama launch openclaw –model deepseek-v4-flash:cloud 使用 Hermes 试试:ollama launch hermes…

— ollama (@ollama) 2026 年 4 月 24 日

DeepSeek V4 预览:两款尺寸、1M 上下文

根据 DeepSeek 官方 API 文档 4/24 发布公告,DeepSeek-V4 Preview 分两款尺寸同步开源发布:

型号 总参数 活跃参数 定位 DeepSeek-V4-Pro 1.6 兆 490 亿 目标对标闭源旗舰 DeepSeek-V4-Flash 2,840 亿 130 亿 快速、高效、低成本

两款均采用 Mixture-of-Experts(MoE)架构,原生支持 100 万 tokens 长上下文。DeepSeek 在公告中宣告:“1M 上下文现在是所有 DeepSeek 官方服务的默认值。”

架构创新:DSA 稀疏注意力+Token-wise 压缩

V4 系列核心的架构改进包含:

Token-wise 压缩搭配 DSA(DeepSeek Sparse Attention)——针对超长上下文下的推理运算与 KV 缓存内存大幅削减成本

相较 V3.2,V4-Pro 在 100 万 tokens 上下文场景下,每个 token 推理仅需 27% 的 FLOPs、KV cache 仅需 10%

支持 Thinking 与 Non-Thinking 双模式切换,对应不同任务的深度推理需求

API 层面同时兼容 OpenAI ChatCompletions 与 Anthropic APIs 规格,降低既有 Claude/GPT 客户端的迁移成本。

Ollama Cloud 的三组一键启动指令

Ollama 官方模型页以模型标识符 deepseek-v4-flash:cloud 提供云端推理服务,开发者可用以下三组指令直接把 V4-Flash 串到既有 AI 程式开发工作流:

工作流 指令 Claude Code ollama launch claude --model deepseek-v4-flash:cloud OpenClaw ollama launch openclaw --model deepseek-v4-flash:cloud Hermes ollama launch hermes

值得留意的是“美国主机”这个信号。对企业与欧美开发者而言,使用中国开源模型时最大疑虑是数据回传中国;Ollama 选择把 V4-Flash 的推理层放在美国,意味着 prompt 与程式码内容不离开美国司法管辖,降低合规与数据主权层面的摩擦。

为什么这件事对 AI 产业重要

把 DeepSeek V4-Flash、Ollama Cloud、Claude Code 三个原本各自独立的生态接起来,产生三层意义:

成本路线:V4-Flash 的 130 亿活跃参数远小于 GPT-5.5(输入 5 美元、输出 30 美元/百万 tokens)与 Claude Opus 4.7 等旗舰,对于中小型代理任务、批次摘要、测试自动化等用途,单位成本有望显著下降

地缘风险的中介层:Ollama 作为美国注册的中介推理层,让中国原生模型的企业用户得以绕开“资料直接送 DeepSeek 北京服务器”的疑虑,是开源模型在国际扩散的实务解法

开发者即刻切换:Claude Code 与 OpenClaw 的用户可在命令列一行切模型,不必改 prompt 结构或 IDE 设置,对于“多模型回归测试”“成本敏感的批次任务”使用场景是真正的生产力释放

与先前 DeepSeek 新闻的联动

这次 V4 发布与 Ollama Cloud 快速整合,发生在 DeepSeek 正在洽谈首轮外部融资、估值 200 亿美元的背景下。V4 是 DeepSeek 公司资本化过程中的关键产品证明;以开源策略+国际主机合作伙伴快速扩散,则是其在建立开发者生态垄断前的速度战。对 OpenAI 与 Anthropic 而言,一个可以在 Claude Code 内部一行切换的开源替代模型,是 agent 工作流主导权争夺的新变量。

这篇文章 DeepSeek V4-Flash 登上 Ollama Cloud、美国主机:Claude Code、OpenClaw 一键串接 最早出现在 鏈新聞 ABMedia。

免责声明:本页面信息可能来自第三方,不代表 Gate 的观点或意见。页面显示的内容仅供参考,不构成任何财务、投资或法律建议。Gate 对信息的准确性、完整性不作保证,对因使用本信息而产生的任何损失不承担责任。虚拟资产投资属高风险行为,价格波动剧烈,您可能损失全部投资本金。请充分了解相关风险,并根据自身财务状况和风险承受能力谨慎决策。具体内容详见声明

相关文章

中国与美国就模型蒸馏指控及投资限制展开AI对决

Gate News消息,4月24日——中国已驳斥美国指控,称其科技巨头正通过工业级蒸馏剥削美国AI技术;与此同时,两国正为在AI开发和投资控制方面发生重大冲突而做准备。特朗普政府正在准备

GateNews1小时前

Google 计划向 Anthropic 投资最高 $40 十亿美元,并承诺 5+ 吉瓦的计算能力

Gate News 消息,4月24日——据市场消息人士称,Google 计划向 Anthropic 投资最高 $40 十亿美元。该投资将以初始 $10 十亿美元现金启动,随后在实现指定里程碑后,最多再追加 $30 十亿美元。 Google 还将向 Anthropic 提供至少 5 吉瓦的计算能力,作为合作的一部分。

GateNews3小时前

瑞士监管机构 FINMA 警告:Anthropic 的 Mythos AI 工具存在金融风险

Gate News 消息,4 月 24 日 — 瑞士金融市场监管局 (FINMA) 表示,允许银行快速且方便地采用 Anthropic 的人工智能工具 Mythos 将带来严重风险。该

GateNews3小时前

DeepSeek V4 以 1M 上下文窗口发布;华为 Ascend 与寒武纪芯片实现全面兼容

Gate News 消息,4月24日——DeepSeek V4-Pro 和 DeepSeek V4-Flash 于 4 月 24 日正式发布,并开源发布;上下文处理长度从 128K 大幅扩展至 1M,容量提升接近 10 倍。华为计算宣布其 Ascend 超算节点

GateNews4小时前

Fere AI 完成由 Ethereal Ventures 牵头的 130 万美元融资

Gate News 消息,4月24日——Fere AI,一家由人工智能驱动的数字资产交易代理平台,宣布完成一轮由 Ethereal Ventures 牵头的 130 万美元融资,Galaxy Vision Hill 和 Kosmos Ventures 参与。 该平台支持跨链网络,包括 Ethereum,

GateNews4小时前

Anthropic在质量下滑后回滚Claude Code变更;所有修复已完成

门罗新闻消息,4月24日——Anthropic已承认最近Claude Code质量下滑,并确认所有相关问题已通过回滚和修复解决。问题源于4月上旬至4月中旬期间进行的三项产品和提示词调整。 在3月4日,

GateNews6小时前
评论
0/400
暂无评论