Mensagem do Gate News, 27 de abril — A equipe MiMo da Xiaomi disponibilizou em código aberto a série de modelos de linguagem de grande porte MiMo-V2.5 sob licença MIT, com suporte a implantação comercial, treinamento contínuo e ajuste fino. Ambos os modelos apresentam uma janela de contexto de 1 milhão de tokens. O MiMo-V2.5-Pro é um modelo de especialistas mistos de texto puro (MoE) com 1,02 trilhão de parâmetros totais e 42 bilhões de parâmetros ativos, enquanto o MiMo-V2.5 é um modelo multimodal nativo com 310 bilhões de parâmetros totais e 15 bilhões de parâmetros ativos, com suporte à compreensão de texto, imagem, vídeo e áudio.
O MiMo-V2.5-Pro mira tarefas complexas de agentes e de programação. Nos benchmarks ClawEval, ele obteve 64% de Pass@3 consumindo aproximadamente 70.000 tokens por trajetória de tarefa — 40% a 60% menos tokens do que Claude Opus, Gemini 3.1 Pro e GPT-5.4. O modelo obteve 78,9 no SWE-bench Verified. Em uma demonstração, o V2.5-Pro implementou de forma independente um compilador completo de SysY para RISC-V para um projeto de curso do compilador da Universidade de Pequim em 4,3 horas, com 672 chamadas de ferramenta, alcançando uma pontuação perfeita de 233/233 em conjuntos de testes ocultos.
O MiMo-V2.5 foi projetado para cenários de agentes multimodais, equipado com um codificador de visão dedicado (729 milhões de parâmetros) e um codificador de áudio (261 milhões de parâmetros), com pontuação 62,3 no subconjunto geral Claw-Eval. Ambos os modelos empregam uma arquitetura híbrida que combina atenção por janela deslizante (SWA) e atenção global (GA), acompanhada por um módulo de predição de múltiplos tokens em 3 camadas (MTP) para inferência acelerada. Os pesos do modelo estão disponíveis no Hugging Face.
Junto ao lançamento de código aberto, a equipe MiMo lançou o “Orbit Quadrillion Token Creator Incentive Program”, oferecendo 100 quadrilhões de tokens gratuitos ao longo de 30 dias para usuários globais. Desenvolvedores individuais, equipes e empresas podem se inscrever via a página do programa, com um ciclo de avaliação de aproximadamente 3 dias úteis; os benefícios aprovados são distribuídos como Token Plans ou créditos diretos, compatíveis com ferramentas como Claude Code e Cursor.
Related Articles
Cerebras busca $4 bilhão em IPO com avaliação-alvo de US$ 40 bilhões
Conselho da Academia proíbe conteúdo de IA no 99º Oscar, exigindo vitórias apenas de humanos
A NVentures da Nvidia investe $50M na plataforma de IA jurídica Legora, na extensão da Série D
O CFO da OpenAI sugere adiar a IPO para 2027 em meio a desaceleração do crescimento, enquanto o CEO prefere o 4º trimestre de 2026
Bakkt conclui aquisição da DTR em meio a crescimento de receita e reestruturação estratégica