DeepSeek V4-Flash 登上 Ollama Cloud、美國主機:Claude Code、OpenClaw 一鍵串接

本地 AI 模型運行工具 Ollama 於 4/24 在 X 平台公開宣布,將中國 AI 新創 DeepSeek 前一日釋出的 V4-Flash 模型納入 Ollama Cloud 服務。推論主機位於美國,並提供三組一鍵指令讓開發者直接把 V4-Flash 接到 Claude Code、OpenClaw 與 Hermes 等主流 AI 程式開發工作流中。

deepseek-v4-flash 现在可在 Ollama 的云端使用!托管在美国。使用 Claude Code 试试:ollama launch claude –model deepseek-v4-flash:cloud 使用 OpenClaw 试试:ollama launch openclaw –model deepseek-v4-flash:cloud 使用 Hermes 试试:ollama launch hermes…

— ollama (@ollama) 2026 年 4 月 24 日

DeepSeek V4 预览:两款尺寸、1M 上下文

根据 DeepSeek 官方 API 文档 4/24 发布公告,DeepSeek-V4 Preview 分两款尺寸同步开源发布:

型号 总参数 活跃参数 定位 DeepSeek-V4-Pro 1.6 兆 490 亿 目标对标闭源旗舰 DeepSeek-V4-Flash 2,840 亿 130 亿 快速、高效、低成本

两款均采用 Mixture-of-Experts(MoE)架构,原生支持 100 万 tokens 长上下文。DeepSeek 在公告中宣告:“1M 上下文现在是所有 DeepSeek 官方服务的默认值。”

架构创新:DSA 稀疏注意力+Token-wise 压缩

V4 系列核心的架构改进包含:

Token-wise 压缩搭配 DSA(DeepSeek Sparse Attention)——针对超长上下文下的推理运算与 KV 缓存内存大幅削减成本

相较 V3.2,V4-Pro 在 100 万 tokens 上下文场景下,每个 token 推理仅需 27% 的 FLOPs、KV cache 仅需 10%

支持 Thinking 与 Non-Thinking 双模式切换,对应不同任务的深度推理需求

API 层面同时兼容 OpenAI ChatCompletions 与 Anthropic APIs 规格,降低既有 Claude/GPT 客户端的迁移成本。

Ollama Cloud 的三组一键启动指令

Ollama 官方模型页以模型标识符 deepseek-v4-flash:cloud 提供云端推理服务,开发者可用以下三组指令直接把 V4-Flash 串到既有 AI 程式开发工作流:

工作流 指令 Claude Code ollama launch claude --model deepseek-v4-flash:cloud OpenClaw ollama launch openclaw --model deepseek-v4-flash:cloud Hermes ollama launch hermes

值得留意的是“美国主机”这个信号。对企业与欧美开发者而言,使用中国开源模型时最大疑虑是数据回传中国;Ollama 选择把 V4-Flash 的推理层放在美国,意味着 prompt 与程式码内容不离开美国司法管辖,降低合规与数据主权层面的摩擦。

为什么这件事对 AI 产业重要

把 DeepSeek V4-Flash、Ollama Cloud、Claude Code 三个原本各自独立的生态接起来,产生三层意义:

成本路线:V4-Flash 的 130 亿活跃参数远小于 GPT-5.5(输入 5 美元、输出 30 美元/百万 tokens)与 Claude Opus 4.7 等旗舰,对于中小型代理任务、批次摘要、测试自动化等用途,单位成本有望显著下降

地缘风险的中介层:Ollama 作为美国注册的中介推理层,让中国原生模型的企业用户得以绕开“资料直接送 DeepSeek 北京服务器”的疑虑,是开源模型在国际扩散的实务解法

开发者即刻切换:Claude Code 与 OpenClaw 的用户可在命令列一行切模型,不必改 prompt 结构或 IDE 设置,对于“多模型回归测试”“成本敏感的批次任务”使用场景是真正的生产力释放

与先前 DeepSeek 新闻的联动

这次 V4 发布与 Ollama Cloud 快速整合,发生在 DeepSeek 正在洽谈首轮外部融资、估值 200 亿美元的背景下。V4 是 DeepSeek 公司资本化过程中的关键产品证明;以开源策略+国际主机合作伙伴快速扩散,则是其在建立开发者生态垄断前的速度战。对 OpenAI 与 Anthropic 而言,一个可以在 Claude Code 内部一行切换的开源替代模型,是 agent 工作流主导权争夺的新变量。

这篇文章 DeepSeek V4-Flash 登上 Ollama Cloud、美国主机:Claude Code、OpenClaw 一键串接 最早出现在 鏈新聞 ABMedia。

免责声明:本页面信息可能来自第三方,不代表 Gate 的观点或意见。页面显示的内容仅供参考,不构成任何财务、投资或法律建议。Gate 对信息的准确性、完整性不作保证,对因使用本信息而产生的任何损失不承担责任。虚拟资产投资属高风险行为,价格波动剧烈,您可能损失全部投资本金。请充分了解相关风险,并根据自身财务状况和风险承受能力谨慎决策。具体内容详见声明

相关文章

社区问题 5月4日主流 AI 模型中的意识形态偏见

据 BlockBeats 称,5 月 4 日,AI 社区用户 X Freeze 质疑主流 AI 模型(包括 ChatGPT、Claude 和 Gemini)是否存在系统性的偏见,即在性别、移民和犯罪等议题上与保守立场不够一致。该用户表示,作为 AI 并

GateNews42 分钟前

Cerebras 计划 $4B 纳斯达克 IPO,并于 5 月 4 日启动路演,发行价为每股 $115-$125

根据路透社,AI 芯片制造商 Cerebras Systems 于 5 月 4 日启动其首次公开募股(IPO)路演,拟在纳斯达克上市,股票代码为 CBRS。该公司计划将发行价定在 115 美元至 125 美元之间,最高可能在估值约 400 亿美元的基础上融资至多 US$$4 billion。该公司这标志着 Cerebras 的第二

GateNews58 分钟前

AI 占美国 Q1 GDP 增长 75%,2027 年五大巨头资本支出或将超过 1.1 万亿美元

摩根士丹利再次上调美国五大云端巨头的资本支出预估,2026 年约 8050 亿美元、2027 年约 1.116 万亿美元,并且 2026 年与 2025 年非科技股支出相当。David Sacks 指出,AI capex 对 GDP 的贡献约 2.5%,明年可能超过 3%,从而被视为美国经济的新引擎。

鏈新聞abmedia1小时前

为抢进 SpaceX、OpenAI 和 Anthropic 的 IPO 热潮,纳斯达克与标普放宽标准

华尔街日报指出,为迎接 SpaceX、OpenAI、Anthropic 等 IPO,标普与纳斯达克放宽成分股入选条件。标普将新股观察期降至 6 个月,或豁免获利门槛;纳斯达克 100 推出快速纳入,超大型 IPO 可于上市第 15 日入指。入选改以总市值、取消最低自由流通股,并採动态加权。专家质疑可能在价格发现不足时放大热门股风险与扭曲。

鏈新聞abmedia1小时前

澳交所警告企业不要夸大 5 月 4 日的 AI 影响

据彭博社报道,5 月 4 日,澳大利亚证券交易所运营商 ASX 警告各公司不要夸大人工智能对其业务的影响。ASX 首席合规官 Lucinda McCann 表示,该交易所正在留意所谓的“加速”或旨在推高股价的说法

GateNews1小时前

Megazone Cloud 与 AWS 合作开展韩国 AI 培训项目

根据该公司公告,南韩云服务公司 Megazone Cloud 于 5 月 4 日被 Amazon Web Services 选为 AWS Agentic AI GameDay 在韩国的运营合作伙伴。该项目是由 AWS 的生成式 AI 创新中心主导的动手实训活动,

Crypto Frontier2小时前
评论
0/400
暂无评论