Kimi hat nicht das Schicksal von DeepSeek.
2024
Vielleicht erinnern Sie sich noch, dass im nicht allzu fernen Jahr 2024 Kimi der Promi in der chinesischen KI-Welt war: 1 Milliarde US - Dollar an Finanzierungen, Kimi - Konzerne, deren Aktien mehrmals an den Kursanstiegsgrenzwerten lagen, ein Modell, das 2 Millionen Zeichen aufnehmen konnte und das GPT in dieser Hinsicht übertraf, sowie eine aggressive Marketingstrategie.
Die Öffentlichkeitswirksamkeit, die sie damals erreichten, übertraf jedoch bei weitem ihren technologischen Einfluss.
Tatsächlich war es nur wenige Menschen möglich, das Modell mit 2 Millionen Zeichen zu nutzen. Später stellte sich heraus, dass es sich um ein experimentelles Modell handelte, dessen Betriebskosten fast dreistellig waren und das somit nicht für eine Massenbenutzung geeignet war.
Die Technologiebranche hielt Kimi damals für nichtig.
Trotzdem etablierte Kimi dank des Hypes um die 2 Millionen Zeichen das Label „Langtext“ und gewann die Herzen der Benutzer.
2025
Anfang 2025 tauchte DeepSeek auf und etablierte sich dank seiner technologischen Stärke als Sprecher der chinesischen KI - Technologie.
Mitte 2025 gab es seit fast einem Jahr keine Nachrichten über neue Finanzierungen für Kimi. Das Stichwort war „Untergang“, Mitarbeiter verließen das Unternehmen, und die Branche gab das Startup für tot.
Wenn Sie von Mitte 2025 an 9 Monate lang abgeschieden waren und im März 2026 die Nachrichten lasen:
Der neueste Schätzwert von Kimi beträgt 120 Milliarden Yuan;
Kimi hat in 20 Tagen mehr verdient als im gesamten vergangenen Jahr;
Das Kimi - Modell wurde von Cursor, dem beliebtesten KI - Programmierwerkzeug mit einem Schätzwert von 350 Milliarden Yuan, übernommen (da Sie 9 Monate lang abgeschieden waren, wissen Sie nicht, dass das beliebteste KI - Programmierwerkzeug inzwischen Claude Code ist und Cursor auf Platz zwei zurückgefallen ist);
Das neue Kimi - Modell wurde von Cloudflare, einem Unternehmen mit einem Marktwert von über 500 Milliarden Yuan und 20 % des Internet - Traffics, als Hauptmodell eingeführt;
Das neue Kimi - Modell ist das einzige Open - Source - Modell und chinesische Modell, das von Perplexity, der weltweit größten unabhängigen KI - Suchanwendung, eingeführt wurde;
Die neue Kimi - Technologie „Attention Residual“ beginnt, die Grundlagen der Deep - Learning - Architektur seit über 10 Jahren zu verändern und wird von Andrej Karpathy, dem Mitbegründer von OpenAI, Jerry Tworek, dem Vater des OpenAI - Inferenzmodells, und Elon Musk gelobt;
Yang Zhilin war der einzige Vertreter einer unabhängigen globalen KI - Großmodellfirma, der auf der NVIDIA GTC 2026 eingeladen wurde, einen Vortrag zu halten...
Sie würden wahrscheinlich staunen.
Man sagt: „Ein Tag in der KI entspricht einem Jahr in der Realität.“ In den 9 Monaten in der KI - Branche ist tatsächlich viel passiert.
Letztendlich handelt es sich um eine Veränderung des Paradigmas der KI - Technologie. Die einfachste Zusammenfassung dieser Veränderung ist der Übergang von Chat zu Agent.
Für die 30 Millionen Programmierer auf der Welt bedeutet die Veränderung, dass das beliebteste Werkzeug von Cursor zu Claude Code gewechselt hat.
Für diejenigen, die immer die ersten sind, neue Technologien zu adopieren, bedeutet die Veränderung, dass sie öfter das schwarze und weiße Befehlszeilenfenster wie in einem DOS - System öffnen...
Für KI - Unternehmen bedeutet die Veränderung, dass sie allmählich feststellen, dass Modelle, die besser chatten können, weit weniger wertvoll sind als Modelle, die Code schreiben und Werkzeuge aufrufen können.
Das coolste Produkt ist von ChatGPT zu Claude Code gewechselt, und das coolste Startup ist von OpenAI zu Anthropic gewechselt.
Zurück zum chinesischen Markt Anfang 2025.
DeepSeek R1 wurde wegen der Nachahmung und Offenlegung der „Tiefen Denkfähigkeit“ von OpenAI o1 sehr beliebt, und ein weiteres Produkt namens Manus, ein „Allgemeiner Agent“, tauchte ebenfalls auf...
Die meisten chinesischen KI - Unternehmen beschäftigten sich damals damit, DeepSeek R1 zu reproduzieren und neue Modelle mit „Tiefen Denkfähigkeit“ zu entwickeln. Nur wenige Unternehmen erkannten, dass das Modell hinter Manus es wert war, Ressourcen in seine Reproduktion zu investieren. Oder sie erkannten es zwar, aber hatten nicht genügend Ressourcen oder keine passende Methode.
Ein großer Wert von Manus besteht darin, dass es die Fähigkeit des Claude - Modells zur mehrfachen Werkzeugaufrufung visuell darstellt. Wie ein Technologiekexperte einer KI - Großmodellfirma in seinem Blog schrieb: „Die meisten Agent - Produkte sind ohne Claude nichts.“
Bis Juli 2025 tauchte das erste chinesische Modell mit Schwerpunkt auf Agent - Fähigkeiten auf. Am 11. Juli wurde Kimi K2 veröffentlicht, mit dem Slogan „Open Agentic Intelligence“. Hier steckt offensichtlich ihre Ambition: Die Agent - Fähigkeiten des Claude - Modells zu reproduzieren und sie als Open - Source - Modell freizugeben. Genau wie DeepSeek R1 die OpenAI o1 reproduziert und als Open - Source - Modell freigegeben hat.
Fünf Tage nach der Veröffentlichung, am 16. Juli, erkannte die britische Zeitschrift Nature den Wert dieses Modells und beschrieb es als „ein weiterer DeepSeek - Moment“.
Zehn Tage nach der Veröffentlichung, am 21. Juli, stellte Jack Clark, Mitbegründer von Anthropic, in seinem Blog K2 vor und beurteilte es wie folgt:
Meiner Meinung nach ist Kimi ein guter KI - Modell, der einige Monate hinter den US - Amerikanern zurückbleibt und den Weg von DeepSeek fortsetzt. Seine Scores bei der Codierung und Werkzeugaufrufung sind hoch genug, und ich vermute, dass es Menschen geben wird, die es tatsächlich nutzen. Daher kann die Adoptionsrate als Indikator für die Wettbewerbsfähigkeit dienen.
Ende Juli erklärte Yang Zhilin in einem Podcast - Interview, warum K2 nicht zuerst die „Tiefen Denkfähigkeit“ entwickelt hat, sondern stattdessen auf die Programmier - und Werkzeugaufruffähigkeiten fokussiert hat. Er verglich Modelle mit Schwerpunkt auf Tiefen Denken mit einem „Gehirn im Tank“. Übrigens ist dieses Interview von Yang Zhilin mehrmals lesenswert, da er viele technische Aspekte erklärt, wie die Beziehung zwischen Programmierung und Agent sowie die Beziehung zwischen Denken und Werkzeugaufruf.
Dank der Leistung von K2 und dem nachfolgenden K2 Thinking - Modell konnten Kimi Ende des Jahres endlich neue Finanzierungen von 500 Millionen US - Dollar erhalten, unterstützt von IDG und einigen alten Aktionären.
2026
Um das chinesische Neujahr 2026 herum, in der Zeit der verrückten Veröffentlichungen von KI - Großmodellen, war Kimi der erste, der sein Modell vorstellte. Vielleicht auch der, der seinen Konkurrenten am meisten Kopfzerbrechen bereitet hat, denn das K2.5 hat 5 Trillionen Parameter, kann Bilder und Videos verstehen und unterstützt sowohl den Denk - als auch den Nicht - Denk - Modus. Alle anderen Startups haben nur reine Textmodelle veröffentlicht. Nur die geschlossenen Modelle großer Unternehmen haben die Fähigkeit, Multimodalität in ihre Flaggschiffmodelle zu integrieren.
Am 16. März veröffentlichte das Kimi - Team eine technische Studie über Attention Residuals, in der es die 10 Jahre alte Grundstruktur der Residualverbindungen in neuronalen Netzen in Frage stellt. Andrej Karpathy, Mitbegründer von OpenAI, kommentierte Kimi scharf: „Wir haben uns bewusst, dass wir die These 'Attention is All You Need' nicht richtig verstanden haben.“ Beachten Sie, dass 'Attention is All You Need' das Heiligtum, das die Ära der KI - Großmodelle eingeleitet hat, ist. Selbst wenn man die Tendenz zur Überbewertung in der KI - Branche berücksichtigt, ist diese Bewertung beispiellos hoch. Es wird gesagt, dass der erste Autor dieser Studie ein 17 - jähriger Schüler ist. Es ist erstaunlich, wie früh Talente auftauchen.
Am 17. März wurde das Kimi - Modell erneut nach der CES 2026 Anfang des Jahres in der Keynote von Huang Renxun auf der GTC 2026 als Standardmodell von NVIDIA zur Demonstration der Leistung der nächsten Generation von Chips und der Inferenz eingesetzt.
Am 18. März hielt Yang Zhilin als einziger Vertreter einer chinesischen unabhängigen KI - Großmodellfirma auf der NVIDIA GTC 2026 einen Vortrag voller wertvoller Informationen. Er verglich die drei Kernmodule - Optimierer, Attention - Mechanismus und Residualverbindung - mit veralteten technologischen Standards von 8 bis 11 Jahren und sah sie als Hindernis für die weitere Skalierung an. Mit neuen technologischen Breakthroughs machte er deutlich, dass „jede Grundtechnologie neu überdacht werden muss“.
Dann gab es die berüchtigte „Cursor - Skandale“. Wer hätte gedacht, dass Cursor, das weltweit größte Programmierhilfswerkzeug mit einem Schätzwert von 5 Milliarden US - Dollar, sein neues Programmiermodell Composer 2 - das besser abschnitt als Claude Opus 4.6 - einfach auf dem Kimi K2.5 - Modell basiert...
Cursor, das als Token - Mittler fungiert, hat sich bemüht, „eigenes“ Programmieren zu entwickeln, um seine Abhängigkeit von Anthropic und OpenAI zu verringern. Die Versorgungsketten - Probleme kennen keine Grenzen. Anthropic hat tatsächlich auch mal die Lieferung von Programmierwerkzeugen wie Windsurf eingestellt. In einer Situation, in der ein Unternehmen sowohl Schiedsrichter als auch Spieler ist, ist Cursors Wunsch nach Unabhängigkeit verständlich.
Allerdings war die Kluft zwischen Fähigkeiten und Vision zu groß. Cursor hat den Namen des Kimi - Modells, auf dem es basiert, weggelassen und versucht, durch Fremdschriftsteller Finanzierungen zu erhalten. Letztendlich hat sich die Sache noch ordentlich gelöst. Der Mitbegründer von Cursor hat sich öffentlich entschuldigt und in einem technischen Bericht die Gründe für die Wahl des Kimi K2.5 - Modells dargelegt. Das Kimi - Team hat darauf geantwortet, dass es sich freut, dass Cursor das Kimi K2.5 - Modell nutzt, und die beiden Seiten haben über den Inference - Dienstleister Fireworks AI eine technische Lizenz vereinbart.
Laut Gerüchten hat Kimi um das chinesische Neujahr 2026 in drei Runden mit Vorfinanzierungsschätzwerten von 4,8 Milliarden, 6 Milliarden und 10 Milliarden US - Dollar insgesamt fast 2 Milliarden US - Dollar an Finanzierungen erhalten. Die 18 Milliarden US - Dollar - Runde, die im März begonnen hat, ist so begehrt, dass man sich in eine Warteliste eintragen muss.
Dies ist sicherlich auch auf die außergewöhnliche Leistung von zwei Konkurrenten an der Hongkonger Börse zurückzuführen, aber vor allem auf die tatsächliche Leistung von K2 und den nachfolgenden Modellen. Dazu gehören die Lobeshymnen von Cursor, Cloudflare, Perplexity, Huang Renxun, Elon Musk, Marc Andreessen, Chamath Palihapitiya und anderen, sowie die finanzielle Leistung von K2.5, das in 20 Tagen mehr verdient hat als im gesamten vergangenen Jahr.
Ein Freund von Kimi sagte in einem privaten Gespräch, dass die einzige Einschränkung für das Geschäft die Rechenleistung ist. Es gibt immer noch mindestens einen Bedarf, der um den Faktor 10 höher ist als die verfügbare Kapazität. Je mehr Grafikkarten man hat, desto mehr Einnahmen kann man erzielen. Laut einem anderen Freund, der in einem großen Unternehmen arbeitet, müssen einige große Unternehmen, die das Kimi - Modell in ihre Programmierwerkzeuge integrieren, es sogar im Voraus bestellen, um genügend Kapazitäten zu erhalten.
In diesen 9 Monaten hat Kimi sein Schicksal gewandelt.
Schicksal
DeepSeek V3 ist nicht in einem Tag entstanden. Die Gene von Magic Square Quantification hinter DeepSeek haben es seit 2023 auf einem völlig anderen Weg der maximalen Energieeffizienz als in Silicon Valley gebracht. In den meisten Teilen der Jahre 2023 und 2024 waren sie von der Hauptströmung abgeschnitten und haben sich intensiv an der Selbstentwicklung der MLA (Multi - Head Latent Attention) und der DeepSeekMoE - Architektur bemüht, um in begrenzten Rechenressourcen eine Leistung zu erzielen, die die physikalischen Grenzen übersteigt. Erst 2025 haben sie sich etabliert und anderen KI - Startups Mut gemacht.
Alle erwarten, dass das nächste Modell von DeepSeek wieder sensationell sein wird. Aber die immer wiederkehrenden Gerüchte in den Medien über „das nächste große Ding“ werden nur die Aufmerksamkeit der Menschen erschöpfen. Technologische Breakthroughs sind nicht so einfach zu erreichen. Wir haben vollkommen Recht, mit Geduld auf das nächste Werk des DeepSeek - Teams zu warten.
Das Kimi K2 ist auch nicht in einem Tag entstanden. Tatsächlich haben sie am gleichen Tag wie DeepSeek R1 das unbemerkt gebliebene K1.5 - Modell veröffentlicht, das von der OpenAI - Offizielle als eines der ersten Unternehmen angesehen wurde, das o1 reproduziert hat. Anfang 2025, als Kimi am stärksten heruntergehalten wurde, haben sie die Moonlight - Serie kleiner MoE - Modelle veröffentlicht, um die nächste Generation von Second - Order - Optimierern zu testen, die schließlich in das K2 - Modell mit einer Billion Parametern integriert wurden. Jetzt hat Muon das 10 Jahre alte Standardverfahren Adam ersetzt und wird von neuen Modellen wie Kimi, GLM - 5 und DeepSeek Engram als neues Standardverfahren eingesetzt.
Wie man sagt: „Was man sät, das wird man ernten.“ Kimi hat 2024 die Aufmerksamkeit und den Ruhm genossen, aber 2026 hat es nicht mehr die gleiche Aufmerksamkeit wie damals bekommen.
Jedem ist sein eigenes Schicksal zugewiesen.
Als zwei Startups, die fast gleichzeitig gegründet wurden, bewundere ich ihre Courage, die nie glaubt, dass das Marktgefüge feststeht, die glaubt, dass Technologie die größte Veränderungsfaktor ist und die sich an die Verfolgung von AGI wagt. Sie sind jung, energisch, haben eine nachweisbare Erfolgsbilanz und glauben immer an die Macht des kontinuierlichen Fortschritts.
Selbst wenn man vom Ende März 2026 aus betrachtet, hat die KI - Revolution, die Ende 2022 begann, erst 3,5 Jahre gedauert. Alles hat gerade erst begonnen. Warum sollte die nächste OpenAI oder Anthropic nicht eine chinesische Firma sein?