StartseiteArtikel

Die verrückteste Woche der KI: Hier sind die 8 wichtigsten Konsenspunkte, die Sie kennen sollten.

未来一氪2026-04-27 19:23
Eine AI-Veranstaltung mit tausenden Teilnehmern, die die Wahrheit über die chinesische KI aufklärt.

In nur acht Tagen gab es so viele wegweisende Nachrichten im globalen KI-Bereich – die Dichte der Veröffentlichungen, die Informationsdichte, das Volumen des Kapitals und die Bandbreite der beteiligten Akteure sind geradezu atemberaubend.

Vom 16. bis 24. April wurden 9 fortschrittliche Modelle wie Anthropic Claude Opus 4.7, Alibaba Qwen3.6-Max, Moonshot AI Kimi K2.6, OpenAI ChatGPT Images 2.0, Ant Group Ling-2.6-flash, Xiaomi MiMo-V2.5-Pro, Tencent Hy3, OpenAI GPT-5.5, DeepSeek-V4 zeitgleich veröffentlicht.

Im gleichen Zeitraum gaben Amazon und Google nacheinander bekannt, dass sie jeweils 25 Milliarden US-Dollar und 40 Milliarden US-Dollar in Anthropic investieren wollen. Elon Musks SpaceX kündigte die geplante Übernahme des KI-Programmier-Einhorns Cursor für 60 Milliarden US-Dollar an, zudem gibt es weit verbreitete Gerüchte über die externe Finanzierung von DeepSeek.

Wenn man diese Ereignisse der Woche zusammenfügt, ergeben sich 5 klare Trends:

  • Das Kernkampfgebiet der KI-Konkurrenz hat sich vom „Chatten“ zur praktischen Aufgabenbearbeitung verlagert;
  • Die Spitzengruppen der KI-Branche in China und den USA haben sich im Grunde gebildet und expandieren kontinuierlich;
  • Chinesische KI weist eine einzigartige Wettbewerbsfähigkeit im Bereich Open Source und Kosteneffizienz auf;
  • Rechenleistungsinfrastruktur wird zu einem Schlüsselfaktor, der das Tempo des KI-Wettbewerbs beeinflusst;
  • Eine neue multiple Branchenbeziehung aus „Investition + Wettbewerb + Kooperation“ etabliert sich derzeit.

Vom 21. bis 22. April fand in diesem Zeitraum die Chinesische Generative KI-Konferenz 2026 (Standort Peking) erfolgreich statt.

Die Konferenz wurde von Zhidx organisiert und von Zhixingxing mitveranstaltet. Sie brachte 73 Gäste aus Wissenschaft, Industrie, Forschung und Investment zusammen. Unter dem Motto „Auf dem Weg zur AGI – Zukunft neu gestalten“ analysierte sie über eine Eröffnungszeremonie, drei thematische Foren und sechs technische Workshops die Branchenstruktur, Innovationsparadigmen, Token-Ökonomie und die Chancen für China in der KI-Branche ganzheitlich.

Die Themen reichen von fortschrittlichen Modellen und Anwendungen wie Large Language Models, multimodalen Modellen, Weltmodellen, Agenten, AI-Brillen bis hin zu Infrastrukturen wie Daten, Chips, Speicher, Kommunikation und Cloud-Diensten.

Die Gäste äußerten unterschiedliche Meinungen, sprachen über Schmerzpunkte und Prognosen, orientierten sich an der Gegenwart und diskutierten über die Zukunft. Die Fülle der geteilten Inhalte ist eine echte Herausforderung für den Geist.

Ein klarer Konsens ist, dass sich der chinesische KI-Markt von der Modellebene auf die Ökosystemebene ausgeweitet hat.

Wir haben die wichtigsten Informationen aus den Beiträgen der Gäste der Eröffnungszeremonie und der drei thematischen Foren zusammengefasst und hoffen, dass sie für Sie inspirierend sind.

1. Wie werden Large Models stärker? Das Erreichen des Niveaus von Fachexperten ist nur eine Frage der Zeit

2. Vorsicht vor Fallstricken bei „Hummer“-Agenten und Token-Käufen! Über Dinge, die Large-Model-Anbieter Ihnen nicht verraten

3. Aus dem durchgesickerten Code von Claude Code: 6 anti-konsensuelle Thesen zusammengefasst

4. Wo liegen die Chancen für China im Zeitalter der Agenten nach OpenClaw?

5. Mehrere Pfade für Weltmodelle: Videogenerierung, native multimodale Vereinheitlichung, 3D-Generierung

6. Der Token-Verbrauch explodiert: Wie können chinesische KI-Infrastrukturen kooperieren und sich weiterentwickeln?

7. In der zweiten Hälfte des Large-Modell-Zeitalters liegen die Wettbewerbsschwerpunkte auf Szenarien, Daten und Qualitätsverständnis

8. Von „Hummer“-Agenten, KI-Brillen bis zum Token-Management: Analyse der Markteinführungswelle chinesischer KI-Agenten

01.

Wie werden Large Models stärker?

Das Erreichen des Niveaus von Fachexperten ist nur eine Frage der Zeit

Bei der Eröffnungszeremonie drehte sich der Vortrag von Zhao Xin, Professor am Gaoling Institute of Artificial Intelligence der Renmin University of China, um eine grundlegende Frage: Wie werden Large Models stärker?

Erstens: Große Modelle weisen weiterhin deutliche Leistungsvorteile auf. Das VorTrainingsverfahren durch Vorhersage des nächsten Wortes kann sehr starke Grundfähigkeiten aufbauen; im Bereich des Post-Trainings ist eine wichtige Richtung RLVR (Reinforcement Learning mit ergebnisbasierter Überwachung), die die Modellfähigkeit für vertikale Bereiche verbessern kann. Es bietet eine alternative Skalierungsroute jenseits des „nächstes Wort vorhersagen“-Überwachungstrainings und schafft einen praktischen Trainingsweg für komplexe Agenten-Umgebungen.

Zweitens: Large Models sollen den Umgang mit Werkzeugen lernen, zum Beispiel die Suche nach Informationen oder die Lösung von Problemen durch Programmierung. Die durch Codeausführung verstärkte Inferenzkette macht den Lösungsprozess klarer und einfacher und verbessert die Inferenzeffizienz deutlich.

Mit steigender Aufgabenkomplexität benötigt das Modell viele Interaktionsrunden, die Verwaltung des Kontextfensters wird zu einer Herausforderung. Es gibt zwei Lösungsansätze: erstens die autonome Komprimierung des Kontexts durch das Modell selbst, zweitens die Nutzung von Dateien als externer Speicher für den Kontext.

In multimodalen Tiefensuchszenarien führen Bilder, Videos und andere Inhalte bei direkter Tokenisierung zu einer drastischen Vergrößerung des Kontextumfangs. Eine Lösung besteht darin, Suchergebnisse zuerst in das lokale Dateisystem zu schreiben, gleichzeitig eine kurze Zusammenfassung zu erstellen, die in das Kontextfenster gelangt, und bei Bedarf nachgeladen zu werden. Auf diese Weise kann eine stabile multimodale Suche mit hundert Runden realisiert werden.

▲ Zhao Xin

 

Gibt man einem Large Model einen virtuellen Computer (z. B. Terminal/Sandbox), können generische Fähigkeiten auch in nicht-codebezogenen Bereichen freigesetzt werden.

Großskaliges Training erfordert viele vielfältige Umgebungen, es ist unrealistisch, manuell Zehntausende von Umgebungen zu erstellen. Kürzliche Forschungen haben die Einführung von Agentendaten deutlich erhöht: zum Beispiel hat DeepSeek-V3.2 im Reinforcement Learning deutlich mehr konstruierte Agentenaufgaben und zugehörige Umgebungen hinzugefügt. Diese Simulationsumgebungen zielen darauf ab, großskalige Trainingsdaten kostengünstig und effizient zu synthetisieren.

Wie kann man komplexe Umgebungen simulieren? Die meisten Agentenoperationen benötigen nur eine leichte Sandbox. Wenn man die Methode des Trainings von Code-Agenten auf Docker-Umgebungen basierend verwendet, liegt der Skalierungsflaschenhals auf der Docker-Ausführungsebene. In diesem Fall kann ein Large Model anstelle von Docker Ausführungsrückmeldungen liefern, um den Bedarf an der Erstellung echter Docker-Instanzen zu reduzieren.

Die zentrale Herausforderung aktueller Multi-Agenten-Systeme liegt in der Stabilität bei langfristigen Aufgaben, was einen passenden Arbeitsablauf erfordert.

Dafür trennt das von dem Gaoling Institute of Artificial Intelligence Open-Source veröffentlichte AiScientist-System die Entscheidungsebene von der Expertenebene: der Orchestrator konzentriert sich auf phasenbezogene Entscheidungen, Experten übernehmen komplexe Teilaufgaben, Dateien werden als Koordinations-"Bus" der Agenten verwendet, wodurch komplexe Orchestrierung und Zusammenarbeit realisiert werden.

Abschließend teilte Professor Zhao Xin drei Prognosen:

1. Die Erweiterung der Modellfähigkeit ist durch die menschliche Kognition begrenzt. Derzeit sind die Möglichkeiten zur Nutzung von Rechenleistung immer noch begrenzt, ein Durchbruch erfordert neue Skalierungsparadigmen.

2. Es ist nur eine Frage der Zeit, bis Large Models das Niveau von Fachexperten vertikaler Bereiche erreichen, die allgemeine AGI bleibt nach wie vor eine Herausforderung. Es werden schätzungsweise noch 1 bis 2 weitere wichtige Training-Skalierungsparadigmen wie „nächster Token vorhersagen“ und RLVR erscheinen, bevor die Realisierung der allgemeinen AGI vorangetrieben werden kann.

3. Die meisten Innovationen sind technische Ingenieurinnovationen, AGI erfordert mehr grundlegende Innovationen. Die Modellfähigkeit und die Entwicklung von Harness entwickeln sich spiralförmig weiter und passen sich gegenseitig an. Infrastruktur kompensiert die Schwächen des Modells, nach der Verbesserung des Modells wird wiederum die Weiterentwicklung der Infrastruktur vorangetrieben; Technologie kann kaum einen dauerhaften Wettbewerbsvorteil bilden, Talente und Daten sind viel wichtiger.

02.

Vorsicht vor Fallstricken bei „Hummer“-Agenten und Token-Käufen!

Über Dinge, die Large-Model-Anbieter Ihnen nicht verraten

Shi Tianhui, Mitbegründer von Qingcheng Jizhi, deckt das aktuelle Chaos der Token-Branche auf – beim Kauf von Tokens gibt es viele Fallstricke.

Das gleiche Modell, gekauft bei verschiedenen Anbietern, hat unterschiedliche Ergebnisse, am Ende fallen andere Kosten an, und die Servicequalität kann enorm unterschiedlich sein.

Bei einem Test stellte er fest, dass das Modell eines Anbieters offensichtliche Probleme hatte. Nach Nachfrage gab der Anbieter zu, dass er int4-Qualität verwendet. Diese Quantisierung kann die Kosten sehr niedrig drücken, aber die Modellleistung ist sehr schlecht.

Anbieter, die das gleiche Modell zu einem günstigeren Preis anbieten, können am Ende höhere Gesamtkosten verursachen, weil die Cache-Trefferquote unterschiedlich ist.

Die Cache-Trefferquote ist ein Indikator, der die Gesamtkosten stark beeinflusst. Aufgrund unterschiedlicher Technologien weisen verschiedene Anbieter sehr unterschiedliche Cache-Trefferraten auf: gute erreichen über 80 %, bei schlechten ist der Cache praktisch nutzlos.

Aber Anbieter teilen diese Information den Kunden nicht mit.

▲ Shi Tianhui

 

Das AI Ping-Team hat 600 Large-Model-API-Dienste von mehr als 30 Anbietern in China getestet, darunter Modellhersteller, große Internetkonzerne, börsennotierte Cloud-Unternehmen und MaaS-Anbieter.

Gemäß dem Test können die Leistungen von großen Anbietern (wie Cloud-Anbietern und Telekommunikationsbetreibern) bei gleichen Modelldiensten und ähnlichen Preisen um das Fünffache oder sogar noch mehr voneinander abweichen.

Sie haben beobachtet, dass die Servicequalität verschiedener Anbieter in China in letzter Zeit deutlich schlechter ist als Ende letzten Jahres. Viele Anbieter können kleinen und mittleren Kunden keine Qualität garantieren, sie haben langsame Reaktionszeiten und offensichtliche Leistungsprobleme.

Der Branchenboom um „Hummer“-Agenten hat zu einem Token-Mangel geführt, Tokens sind teuer und langsam. Der Token-Service ist außerdem eine Black Box, die Branche wächst schnell und ist ungeordnet – wie wählt man also den richtigen Token-Anbieter?

Shi Tianhui empfiehlt das von Qingcheng Jizhi entwickelte AI Ping: Es führt eine umfassende Bewertung und Zusammenfassung der für Nutzer relevanten Large-Model-Serviceindikatoren durch, bietet Filter-, Sortier- und intelligente Routing-Funktionen, sodass Nutzer verschiedene Large-Model-API-Dienste rund um die Uhr bewerten und bei Bedarf nutzen können.

03.

Aus dem durchgesickerten Code von Claude Code,

6 anti-konsensuelle Thesen zusammengefasst

Li Bojie, Chefwissenschaftler von Pine AI, sprach hauptsächlich über die Erkenntnisse aus dem durchgesickerten Code von Claude Code.

Seiner Meinung nach sind das Design der fünfstufigen Berechtigungsprüfung, Fehlerwiederherstellung, Sicherheitswerkzeugsätze und Anti-Distillation-Verteidigungsmechanismen im Quellcode von Claude Code sowie die Herangehensweise, Produkte mit Forschungsmethoden zu entwickeln, sehr lernenswert.

▲ Li Bojie

 

Li Bojie teilte außerdem die 6 daraus abgeleiteten anti-konsensuellen Thesen mit:

1. Der Wert grafischer Benutzeroberflächen (GUI) wird allmählich abnehmen, der Wert von Software verlagert sich von der Oberfläche zur Datenverwaltung. SaaS ohne Datenbarrieren wird höchstwahrscheinlich vom Markt verschwinden.

Agenten lesen