StartseiteArtikel

Rofoli stellt das stärkste Open-Source-Modell von Xiaomi vor, das DeepSeek-V4 übertrifft, und passt es an fünf chinesische Chips an, am ersten Tag.

智东西2026-04-28 09:50
Kostenlose 100 Billionen Tokens, der neue König der Open-Source-Modelle tritt auf die Bühne.

Zhidongxi berichtete am 28. April, dass Xiaomi gerade das MiMo-V2.5-Serienmodell, das von Luo Fuli geleitet entwickelt wurde, opensourcete. Das Modell verwendet die MIT-Lizenz, die kommerzielle Inferenzbereitstellung und die zweiteilige Trainierung erlaubt, ohne zusätzliche Genehmigung erforderlich zu sein.

▲Screenshot der Open-Source-Seite von MiMo-V2.5-Pro auf Hugging Face

Zuvor wurde die öffentliche Beta-Phase dieses Serienmodells am 23. April gestartet, einschließlich der beiden Modelle MiMo-V2.5-Pro und MiMo-V2.5. Das Modell verfügt über stärkere Agent-Fähigkeiten, unterstützt 1 Million Kontextinformationen und hat eine deutlich verbesserte Token-Effizienz.

Die vollständigen Benchmark-Ergebnisse von MiMo-V2.5-Pro wurden heute veröffentlicht. Xiaomi behauptet, dass es in mehreren Tests wie GDPVal-AA (Elo) und Claw-Eval (pass^3) das neueste Open-Source-Modell DeepSeek-V4-Pro übertroffen hat und auch die jüngst veröffentlichte, populäre Closed-Source-Lösung Kimi K2.6 übertreffen konnte, was insgesamt die beste Leistung darstellt.

▲Die neuesten Testleistungen von MiMo-V2.5-Pro

Am ersten Tag der Open-Source-Veröffentlichung gab MiMo-V2.5-Pro bekannt, dass es die Anbindung und Anpassung an mehrere Chiphersteller wie Alibaba T-Head, Amazon Web Services, AMD, Baidu Kunlunxin, Enflame Technology, Muxi Technology und Daysci abgeschlossen hat. Das MiMo-V2.5-Serienmodell hat gleichzeitig die Tag-0-Anpassung an die gängigen Inferenzframeworks SGLang und vLLM abgeschlossen.

Zur gleichen Zeit hat Xiaomi auch ein Anreizprogramm für Millionentillionen-Token-Schöpfer eingeführt und plant, innerhalb von 30 Tagen insgesamt 100 Billionen Token-Berechtigungen kostenlos zu verteilen. Es hat auch ein Programm zur gemeinsamen Aufbau der Agent-Ökosysteme gestartet und hat derzeit bereits mit Agent-Framework-Herstellern wie OpenCode, Hermes Agent und KiloCode zusammengearbeitet.

Modellgewichts-Sammlung:

https://huggingface.co/collections/XiaomiMiMo/mimo-v25

Weitere Details finden Sie im Modell-Blog:

https://mimo.xiaomi.com/index#blog

Anmelde-URL für das Millionentillionen-Token-Programm:

https://100t.xiaomimimo.com/

01.

Veröffentlichung der technischen Details des Modells

Test übertrifft DeepSeek-V4

Aus der neuesten von Xiaomi veröffentlichten Modellkarte geht hervor, dass das bisher stärkste Modell von Xiaomi, MiMo-V2.5-Pro, ein gemischtes Expert-Modell mit 1,02 Billionen (1,02 T) Parametern ist, von denen 42 Milliarden (42 B) aktivierte Parameter sind. Basierend auf der gemischten Aufmerksamkeitsarchitektur hat es im Vergleich zu den Vorgängermodellen sowohl in der allgemeinen Intelligenzfähigkeit, in der komplexen Softwareentwicklung als auch in der Verarbeitung von Langzeitaufgaben signifikante Verbesserungen erzielt.

MiMo-V2.5-Pro hat die gemischte Aufmerksamkeitsmechanik und das Multi-Token-Prädiktions-Design (MTP) von MiMo-V2-Flash übernommen. Die lokale gleitende Fensteraufmerksamkeit (SWA) und die globale Aufmerksamkeit (GA) werden im Verhältnis 6:1 abwechselnd verwendet. Die Fenstergröße beträgt 128 Token. Bei langen Kontexten wird durch einen lernbaren Aufmerksamkeitspool-Bias der Speicherbedarf für die Schlüssel-Wert-Caches um fast das 7-fache reduziert, während die Leistung aufrechterhalten bleibt. Ein leichtgewichtiges MTP-Modul, das ein dichtes Feedforward-Neurales Netzwerk (FFN) verwendet, ist nativ für Training und Inferenz integriert. Die Ausgabedurchsatzleistung ist etwa um das Dreifache erhöht, und die Implementierung des Reinforcement Learnings (RL) ist beschleunigt.

▲Das Modell-Architektur und der Trainingsvorgang von MiMo-V2.5-Pro

Für das Vortraining des Modells wurden 27 Billionen (27 T) Token verwendet. Es wird FP8-Mischpräzision eingesetzt, die native Sequenzlänge beträgt 32 K, und der Kontext wird auf 1 Million Token erweitert. Das Nachtraining folgt dem in MiMo-V2-Flash eingeführten Dreiphasen-Paradigma: 1. Überwachtes Feintuning, um auf sorgfältig ausgewählten Datensätzen die grundlegende Befehlsverfolgung aufzubauen; 2. Domänenspezifisches Training, bei dem verschiedene Lehrer-Modelle jeweils durch auf bestimmte Domänen zugeschnittenes Reinforcement Learning optimiert werden, einschließlich Mathematik, Sicherheit, Nutzung von Intelligenztools usw.; 3. Mehr-Lehrer-Strategiedistillation (MOPD), bei der ein einzelnes Schüler-Modell unter der Token-Level-Beratung jedes spezialisierten Lehrers Strategien aus seinen eigenen Abwicklungen lernt und die Fähigkeiten aller Lehrer in einem einheitlichen Modell vereint.

Schauen wir uns nun MiMo-V2.5 an. Dies ist ein spärliches MoE-Modell mit 310 Milliarden (310 B) Parametern und 15 Milliarden (15 B) aktivierten Parametern, das auf 48 Billionen (48 T) Token trainiert wurde. Sein Sprach-Hauptrahmen hat die gemischte gleitende Fensteraufmerksamkeitsmechanik von MiMo-V2-Flash übernommen und ist mit selbstentwickelten Vortrainings-Video- und Audio-Encodern ausgestattet. Beide Arten von Encodern werden über ein leichtgewichtiges Projektionsmodul für die Intermodulfusion integriert.

▲Die Architektur von MiMo-V2.5

Der Trainingsvorgang gliedert sich in fünf Phasen: 1. Text-Vortraining auf der Grundlage von vielfältigen Textkorpora, um das Hauptnetzwerk des großen Sprachmodells aufzubauen; 2. Vorwärm-Training der Projektionsschicht, um die Audio-Video- und Visuelle Projektoren mit dem Sprachmodell auszurichten und zu integrieren; 3. Massives multimodales Vortraining auf der Grundlage eines hochwertigen multimodalen Datensatzes; 4. Überwachtes Feintuning und Nachtraining des Agenten, bei dem das Kontextfenster schrittweise von 32 K auf 256 K erweitert wird und schließlich 1 Million Token erreicht; 5. Schließlich wird durch Reinforcement Learning (RL) und Mehrziel-Präferenzdistillation (MOPD) die Wahrnehmungs-, logische Schlussfolgerungs- und Agentenausführungsfähigkeit des Modells weiter verbessert.

Aus den neuesten von Xiaomi veröffentlichten Testergebnissen geht hervor, dass MiMo-V2.5 in mehreren Tests wie Claw-Eval Text, Terminal-Bench 2.0 und SWE-Bench Pro das kürzlich von DeepSeek veröffentlichte DeepSeek-V4-Flash deutlich übertrifft.

▲Die neuesten Testresultate von MiMo-V2.5

02.

Am ersten Tag der Open-Source-Veröffentlichung: Anpassung an 7 Chiphersteller wie Alibaba T-Head und Muxi Technology abgeschlossen

Xiaomi hat auch die neuesten Anpassungssituationen des Chip-Ökosystems und der Inferenzframeworks veröffentlicht. Am ersten Tag der Open-Source-Veröffentlichung von MiMo-V2.5-Pro wurde die Anbindung und Anpassung an mehrere Chiphersteller abgeschlossen:

Alibaba T-Head: Es wurde eine tiefe Anpassung auf der Grundlage des Zhenwu 810E und des ganzheitlich selbstentwickelten AI-Softwarestapels erreicht.

Amazon Web Services: Die tiefe Anpassung wurde auf der Grundlage des Trainium2-Chips und des Neuron SDK + vLLM-Inferenzframeworks abgeschlossen, um eine globale Verfügbarkeit bereits am ersten Tag der Open-Source-Veröffentlichung zu ermöglichen. Der nächste Trainium3 mit 3-nm-Prozess wird die Leistung des Modells weiter verbessern.

AMD: Über den Open-Source-Softwarestapel ROCm wird eine Tag-0-Anpassung und umfassende Optimierungsunterstützung bereitgestellt.

Baidu Kunlunxin: Durch die Optimierung der untersten Operatoren und die Hardware-Software-Kooperation wird sichergestellt, dass das Modell stabil und effizient funktioniert.

Enflame Technology: Auf der Grundlage des selbstentwickelten TopsRider-Softwarestapels wurde eine tiefe Optimierung vorgenommen, und die vollständige Anpassung auf dem Enflame L600 wurde abgeschlossen.

Muxi Technology: Auf der Grundlage der Xiyun C-Serie und des ganzheitlich selbstentwickelten MXMACA-Softwarestapels wird eine end-to-end-natürliche Unterstützung von Triton-Syntax bis zur Muxi-GPU-Befehlssammlung bereitgestellt.

Daysci: Es wurde eine Tag-0-tiefe Anpassung erreicht.

Darüber hinaus hat das MiMo-V2.5-Serienmodell gleichzeitig die Tag-0-Anpassung an die gängigen Inferenzframeworks SGLang und vLLM abgeschlossen.

03.

100 Billionen Token kostenlos verteilen

Schon in Zusammenarbeit mit Hermes Agent usw.

Zur gleichen Zeit hat Xiaomi auch das MiMo Orbit-Programm gestartet, das aus zwei Teilen besteht: dem "Anreizprogramm für Millionentillionen-Token-Schöpfer" und dem "Programm zur gemeinsamen Aufbau der Agent-Ökosysteme" für Agent-Framework-Teams.

Im Bereich des Anreizprogramms für Millionentillionen-Token-Schöpfer verteilt Xiaomi Token kostenlos an globale AI-Benutzer. Innerhalb von 30 Tagen werden insgesamt 100 Billionen Token-Berechtigungen verteilt, solange der Vorrat reicht.

Dieses Programm basiert auf einer Antragsverfahren. Die Genehmigten können den Max-Token-Plan erhalten, der 1,6 Milliarden Credits enthält und einen Wert von 659 Yuan hat. Veranstaltungszeitraum: Von 00:00 Uhr am 28. April 2026 bis 00:00 Uhr am 28. Mai 2026, chinesische Zeit.

Im Bereich des Programms zur gemeinsamen Aufbau der Agent-Ökosysteme bietet Xiaomi globalen Agent-Framework-Teams spezielle Unterstützung, indem es den Frameworks eine kostenlose Nutzung von MiMo-Token ermöglicht und an gemeinsamen Aktivitäten wie AI-Hackathons auf Framework-Plattformen teilnimmt und diese sponsert.

Xiaomi hat derzeit bereits eine tiefe Zusammenarbeit mit Agent-Framework-Herstellern wie OpenCode, Hermes Agent und KiloCode begonnen.

04.

Fazit: Mehrere chinesische Open-Source-Modelle treten in Konkurrenz

In letzter Zeit hat die Open-Source-Aktivität in der Branche der großen Modelle kontinuierlich zugenommen. Die "Tag-0"-Anpassung von Modellen an chinesische und internationale Chips ist von einem Highlight zu einer Notwendigkeit geworden. Die Inferenzeffizienz und die Bereitstellungskosten werden zum Kern der Konkurrenz in der nächsten Phase. Gleichzeitig spiegeln die kostenlosen Anreize für Billionen-Token und die gemeinsame Aufbau der Agent-Framework-Ökosysteme wider, dass sich die Branche von der "Konkurrenz um Parameter" zur "Konkurrenz um Anwendungen" wandelt.

Es ist bemerkenswert, dass das Xiaomi MiMo-V2.5-Pro in mehreren Benchmark-Tests direkt das neueste Open-Source-Modell DeepSeek-V4-Pro von DeepSeek übertrifft. Dies kann als eine Konfrontation in der Open-Source-Rennstrecke mit DeepSeek angesehen werden und hat das Potenzial, die Branche dazu zu zwingen, die Inferenzkosten schneller zu senken und die Erfolgsquote bei der Ausführung echter Agentenaufgaben zu erhöhen.

Dieser Artikel stammt aus dem WeChat-Account "Zhidongxi" (ID: zhidxcom). Autor: Li Shuiqing, Redakteur: Yun Peng. Veröffentlicht von 36Kr mit Genehmigung.