小米的 MiMo-V2.5 系列开源:1T 参数,相较 GPT-5.4 令牌效率更优

Gate News message, April 27 — Xiaomi’s MiMo team has open-sourced the MiMo-V2.5 series of large language models under MIT license, supporting commercial deployment, continued training, and fine-tuning. Both models feature a 1 million token context window. MiMo-V2.5-Pro is a pure-text mixture-of-experts (MoE) model with 1.02 trillion total parameters and 42 billion active parameters, while MiMo-V2.5 is a native multimodal model with 310 billion total parameters and 15 billion active parameters, supporting text, image, video, and audio understanding.

MiMo-V2.5-Pro targets complex agent and programming tasks. In ClawEval benchmarks, it achieved 64% Pass@3 while consuming approximately 70,000 tokens per task trajectory—40% to 60% fewer tokens than Claude Opus, Gemini 3.1 Pro, and GPT-5.4. The model scored 78.9 on SWE-bench Verified. In a demonstration, V2.5-Pro independently implemented a complete SysY-to-RISC-V compiler for a Peking University compiler course project in 4.3 hours with 672 tool calls, achieving a perfect score of 233/233 on hidden test sets.

MiMo-V2.5 is designed for multimodal agent scenarios, equipped with a dedicated vision encoder (729 million parameters) and audio encoder (261 million parameters), scoring 62.3 on the Claw-Eval general subset. Both models employ a hybrid architecture combining sliding window attention (SWA) and global attention (GA), paired with a 3-layer multi-token prediction (MTP) module for accelerated inference. Model weights are available on Hugging Face.

Alongside the open-source release, the MiMo team launched the “Orbit Quadrillion Token Creator Incentive Program,” offering 100 quadrillion tokens free over 30 days to global users. Individual developers, teams, and enterprises can apply via the program page with an evaluation cycle of approximately 3 business days; approved benefits are distributed as Token Plans or direct credits, compatible with tools like Claude Code and Cursor.

免责声明:本页面信息可能来自第三方,不代表 Gate 的观点或意见。页面显示的内容仅供参考,不构成任何财务、投资或法律建议。Gate 对信息的准确性、完整性不作保证,对因使用本信息而产生的任何损失不承担责任。虚拟资产投资属高风险行为,价格波动剧烈,您可能损失全部投资本金。请充分了解相关风险,并根据自身财务状况和风险承受能力谨慎决策。具体内容详见声明

相关文章

ChatGPT 用户现在可在 OpenClaw 平台上访问订阅,萨姆·奥尔特曼宣布

根据 Sam Altman 今天的公告,ChatGPT 用户现在可以使用他们的 ChatGPT 账号登录 OpenClaw 代理平台,并直接访问他们在该平台上的现有 ChatGPT 订阅。

GateNews38 分钟前

xAI 推出 Grok 定制语音,让用户在一分钟内克隆自己的 AI 语音

据 Beating,xAI 发布了 Grok Custom Voices 和 Voice Library,允许用户在 xAI 控制台录制一分钟音频,以生成一个自定义的 voice_id,用于 Grok TTS 和 Voice Agent API。该功能支持包括客服代理、内容创作在内的应用,

GateNews1小时前

HBM 后 AI 存储器瓶颈是 HBF?图灵奖得主 David Patterson:推理将重新定义存储架构

图灵奖得主 David Patterson 指出,随着 AI 从训练走向大规模推理,下一波内存瓶颈可能不是 HBM,而是 HBF(高带宽快闪存储器)。HBF 将 NAND Flash 堆叠提供大容量、低功耗,负责推理中的上下文与中间数据存取,与以速度为核心的 HBM 分工不同。SK 海力士与 SanDisk 正推动标准化,预计 2038 年 HBF 的需求可能超越 HBM。

鏈新聞abmedia2小时前

Anthropic 使用 Claude 的开发者大会 5/6 旧金山开幕:直播免费注册

Anthropic 5 月 1 日宣布首屆「Code with Claude」开发者大会將於 5 月 6 日舊金山开幕,並首次擴大至倫敦(5/19)与东京(6/10)三城巡迴。三场主场会议的现地名額採抽籤制、皆已抽选完畢,但直播註冊仍对所有人开放。为回应现地需求超載,舊金山场另加开 5/7「Extended」场次,專为獨立开发者与早期階段創辦人设计。 三场巡迴:5/6 舊金山、5/19 倫敦、6/10 东京 Code with Claude 是 Anthropic 主辦的开发者大会,舊金山主场已是第二次舉辦。3 场活动內容相同:一整天的现场工作坊、最新功能 demo、与 Claude 各條

鏈新聞abmedia2小时前

OpenAI 公布 GPT-5.5 上线一周数据:API 营收增速创新高、Codex 翻倍

OpenAI 5 月 1 日于官方账号公布 GPT-5.5 上线一周后的 3 项数据:自评为「历代最强发表」、API 营收成长速度为过去任何一次模型发表的 2 倍以上、Codex 在不到 7 天内营收翻倍。OpenAI 将原因归为企业端对 agentic coding(代理式編码)工具需求持续攀升,与 4 月 30 日 GPT-5.5-Cyber 同期应战 Anthropic Mythos 形成同一波产品节奏。 3 项自公布数据:API 营收倍速、Codex 7 天翻倍、最强发表 OpenAI 此次公布的 3 个关键数字来自官方推文,未附详细财报:第一,GPT-5.5 是「历代营收成长最強」的模

鏈新聞abmedia2小时前

美国众议院外交事务委员会在《MATCH 法案》通过后 36-8 就 AI 出口管制与科技巨头会面

根据 Beating,美国众议院外交事务委员会成员下周将前往硅谷,向来自 Google、Anthropic、Meta、Tesla、Intel、Applied Materials 和 Nvidia 的代表进行会面,以讨论人工智能与出口管制。一个产业圆桌会议是

GateNews3小时前
评论
0/400
暂无评论