La série MiMo-V2.5 de Xiaomi passe en open source : 1 000 milliards de paramètres avec une efficacité en jetons supérieure à GPT-5.4

Message de Gate News, le 27 avril — L’équipe MiMo de Xiaomi a publié en open source la série de modèles de langage MiMo-V2.5 sous licence MIT, prenant en charge le déploiement commercial, l’entraînement continu et l’affinage. Les deux modèles présentent une fenêtre de contexte de 1 million de jetons. MiMo-V2.5-Pro est un modèle mélange d’experts pure-texte (MoE) avec 1,02 trillion de paramètres au total et 42 milliards de paramètres actifs, tandis que MiMo-V2.5 est un modèle natif multimodal avec 310 milliards de paramètres au total et 15 milliards de paramètres actifs, prenant en charge la compréhension du texte, de l’image, de la vidéo et de l’audio.

MiMo-V2.5-Pro vise des tâches d’agents complexes et de programmation. Sur les benchmarks ClawEval, il a obtenu 64% de Pass@3 tout en consommant environ 70 000 jetons par trajectoire de tâche — 40% à 60% de jetons en moins que Claude Opus, Gemini 3.1 Pro et GPT-5.4. Le modèle a obtenu 78,9 sur SWE-bench Verified. Lors d’une démonstration, V2.5-Pro a implémenté indépendamment un compilateur complet SysY-to-RISC-V pour un projet de cours du compilateur de l’Université de Pékin en 4,3 heures avec 672 appels d’outils, atteignant un score parfait de 233/233 sur des jeux de tests cachés.

MiMo-V2.5 est conçu pour des scénarios d’agents multimodaux, doté d’un encodeur visuel dédié (729 millions de paramètres) et d’un encodeur audio (261 millions de paramètres), obtenant 62,3 sur le sous-ensemble général Claw-Eval. Les deux modèles emploient une architecture hybride combinant l’attention à fenêtre glissante (SWA) et l’attention globale (GA), associée à un module de prédiction multi-jetons à 3 couches (MTP) pour une inférence accélérée. Les poids du modèle sont disponibles sur Hugging Face.

En plus de la publication open source, l’équipe MiMo a lancé le « Orbit Quadrillion Token Creator Incentive Program », offrant 100 quadrillions de jetons gratuitement sur 30 jours aux utilisateurs du monde entier. Les développeurs individuels, les équipes et les entreprises peuvent postuler via la page du programme, avec un cycle d’évaluation d’environ 3 jours ouvrés ; les avantages approuvés sont distribués sous forme de Token Plans ou de crédits directs, compatibles avec des outils comme Claude Code et Cursor.

Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.

Articles similaires

L’entreprise d’IA liée à Trump acquiert Block Street pour 43 millions de dollars

Selon Fortune, AI Financial, une société de cryptomonnaie liée à la famille Trump et auparavant connue sous le nom d’Alt5 Sigma, a acquis Block Street, une entreprise d’infrastructure crypto, pour 43 millions de dollars la semaine dernière. Matthew Morgan, conseiller auprès d’AI Financial et PDG de Block Street, a déclaré que l’acquisition n’était pas une

GateNewsIl y a 15m

Les actions de Riot bondissent de 8 % après l’extension de l’accord avec AMD pour les centres de données

Les actions de Riot Platforms ont augmenté de 8 % après l’extension de son partenariat de centres de données avec AMD et l’amélioration de ses conditions de financement, reflétant le virage stratégique du mineur de bitcoin vers l’intelligence artificielle et les centres de données

GateNewsIl y a 2h

Le Minnesota interdit les outils d’images intimes non consensuelles basés sur l’IA et impose jusqu’à $500K d’amendes

D’après Decrypt, la législature du Minnesota a adopté, le 2 mai, un projet de loi interdisant aux sites web et aux applications de fournir des outils d’IA capables de générer des images intimes non consenties de personnes identifiables. La loi empêche les plateformes d’autoriser les utilisateurs à accéder à ces outils de « deepfake » ou à les utiliser, et interdit

GateNewsIl y a 4h

Les utilisateurs de ChatGPT peuvent désormais accéder aux abonnements sur la plateforme OpenClaw, annonce Sam Altman

D'après l'annonce de Sam Altman aujourd'hui, les utilisateurs de ChatGPT peuvent désormais se connecter à la plateforme d'agents OpenClaw en utilisant leurs comptes ChatGPT et accéder directement à leurs abonnements ChatGPT existants sur la plateforme.

GateNewsIl y a 5h

xAI lance les voix personnalisées de Grok, permettant aux utilisateurs de cloner leur propre voix IA en une minute

Selon Beating, xAI a lancé Grok Custom Voices et Voice Library, permettant aux utilisateurs d’enregistrer une minute d’audio dans la console xAI afin de générer un voice_id personnalisé à utiliser avec les API Grok TTS et Voice Agent. La fonctionnalité prend en charge des applications, notamment des agents de service client, la création de contenu,

GateNewsIl y a 6h

Après les goulots d'étranglement de la mémoire pour l’IA, HBF ? Le lauréat du prix Turing David Patterson : l’inférence redéfinira l’architecture de stockage

Le lauréat du prix Turing David Patterson a indiqué que, à mesure que l’IA passe de l’entraînement à des inférences à grande échelle, la prochaine contrainte de mémoire ne serait peut-être pas l’HBM, mais l’HBF (High Bandwidth Flash, mémoire flash à très haut débit). L’HBF utilise des empilements de NAND Flash pour offrir une grande capacité et une faible consommation d’énergie, chargée d’assurer l’accès au contexte et aux données intermédiaires lors de l’inférence, contrairement à l’HBM, qui est davantage axée sur la vitesse. SK hynix et SanDisk poussent la standardisation et prévoient qu’en 2038, la demande d’HBF pourrait dépasser celle de l’HBM.

ChainNewsAbmediaIl y a 6h
Commentaire
0/400
Aucun commentaire