StartseiteArtikel

Luo Fuli: Die Künstliche Allgemeine Intelligenz (AGI) ist bereits realisiert. Der nächste Schritt ist die "Selbstentwicklung".

字母AI2026-03-27 18:53
Yang Zhilin, Zhang Peng, Luo Fuli. Das Gipfeltreffen über Künstliche Intelligenz im Zhongguancun.

„Die Anzahl der verbrauchten Token bei der Ausführung von Aufgaben ist das 10- bis 100-fache im Vergleich zu einfachen Fragen und Antworten. Dadurch steigen die Kosten erheblich.“

Als er auf die Frage von Yang Zhilin, CEO von Moon's Dark Side, nach der Preissteigerung antwortete, sagte Zhang Peng, CEO von Zhipu, so.

Das oben genannte Fragen-Antwort-Paar fand auf dem Open-Source-Themen-Rundtisch der 2026 Zhongguancun-Forum-Jahrestagung statt, die heute stattfand. Im Gegensatz zum vor drei Monaten von Tsinghua geleiteten AGI-Next Open-Source-Forum gab es auf dem heutigen Open-Source-Themen-Rundtisch einige neue Gesichter.

Bei der AGI-Next-Veranstaltung zu Beginn des Jahres waren neben den Gründern von Zhipu, Tang Jie und Yang Zhilin, auch Lin Junyang, der damalige Technologieverantwortliche von Qwen, als Redner anwesend.

Nach einigen Monaten verließ Lin Junyang auf dramatische Weise schnell Alibaba. Auf diesem Rundtisch waren neben Yang Zhilin und Zhang Peng eine weitere Repräsentantin aus der Basismodell-Branche Luo Fuli, die Leiterin des Xiaomi MiMo-Großmodells, sowie Xia Lixue, Mitbegründerin und CEO von Wuwen Xinqiong, und Huang Chao, Assistentprofessor an der Universität Hongkong, Doktorandenbetreuer und Leiter des Nanobot-Teams.

Parallel zu Luo Fulis Erscheinung war die jüngste erfolgreiche Performance des MiMo-V2-Pro-Modells auf dem Modellmarkt. Die neuesten Wochenstatistiken von OpenRouter zeigen, dass das Xiaomi MiMo-V2-Pro-Modell die Wochenliste anführt und das erste Modell in der Geschichte von OpenRouter ist, dessen wöchentlicher Token-Verbrauch über 3 Billionen liegt.

Dank der hervorragenden Leistung des MiMo-V2-Pro-Modells belegte Xiaomi zusammen mit anderen chinesischen Großmodell-Herstellern wie Zhipu, MiniMax, Jieyue Xingchen und DeepSeek die ersten sechs Plätze in der Wochenliste.

Im Gegensatz zu AGI-Next fokussierte sich der heutige Rundtisch nicht nur auf Modelle. Neben den Vertretern der drei Basismodell-Hersteller Moon's Dark Side, Zhipu und Xiaomi ist Wuwen Xinqiong ein von Tsinghua gegründetes AI-Infrastruktur-Unternehmen, und Nanobot ist ein am Anfang dieses Jahres von der Hongkong University of Science and Technology veröffentlichte Open-Source-Agent-Framework.

Mit anderen Worten, dieses Forum geht von der Agent-Ekologie aus und deckt tatsächlich die gesamte Branchenkette der Künstlichen Intelligenz ab.

Es ist bemerkenswert, dass vor einigen Monaten, als die AGI-Next-Veranstaltung stattfand, Zhipu erst seit drei Tagen an der Börse notiert war, und der Gründer Tang Jie leitete dieses Forum. Auf dem heutigen Open-Source-Themen-Rundtisch, den Yang Zhilin und Moon's Dark Side leiteten, ging gestern die Nachricht, dass sie über eine Börsengänge in Hongkong nachdenken.

Angesichts des speziellen Zeitpunkts und der Bühne des Zhongguancun-Forums wurde dieser Rundtisch schnell in den Mittelpunkt der Branche gerückt.

01 Über die Chancen in der OpenClaw-Ära | Xia Lixue: Die Anzahl der Token verdoppelt sich alle zwei Wochen

Yang Zhilin: Im Moment ist OpenClaw am beliebtesten. Was findet man am einfallsreichsten oder beeindruckendsten, wenn man es im täglichen Gebrauch oder in ähnlichen Produkten nutzt? Aus technischer Sicht möchten wir zunächst Zhang Peng fragen, was er über OpenClaw und die dazugehörigen Agenten denkt.

Zhang Peng: Ich nenne es ein "Gerüst". Es bietet die Möglichkeit, auf Basis des Modells etwas sehr solides, bequemes und flexibles aufzubauen. Normalpersonen können Top-Modelle mit sehr niedrigem Schwellenwert nutzen, insbesondere in Bezug auf Programmierung und die Gesamtfähigkeiten. Früher waren die Ideen durch fehlende Programmierkenntnisse und andere Fähigkeiten eingeschränkt, jetzt kann man es durch einfache Kommunikation erreichen. Das ist ein sehr großer Durchbruch.

Xia Lixue: Ich war am Anfang nicht sehr gewöhnt. Ich war an die chatartige Interaktion gewöhnt und fand OpenClaw sehr langsam. Später stellte ich fest, dass es mir bei der Erledigung großer Aufgaben helfen kann. Von der Token-basierten Chat-Dialoge bis hin zu Agenten, die Aufgaben erledigen können, hat sich der Einfallsreichtum erhöht, aber auch die Anforderungen an die Systemfähigkeiten. Deshalb fühlte es sich am Anfang wie ein Stocken an.

Als Anbieter von Infrastruktur sehe ich Chancen und Herausforderungen. Unsere Ressourcen müssen diese schnell wachsende Ära unterstützen. Beispielsweise hat sich die Anzahl unserer Token seit Anfang Januar alle zwei Wochen verdoppelt. Der aktuelle Token-Verbrauch ist wie in der Zeit der 100-Megabyte-Mobilfunk-Daten. Wir müssen eine bessere Optimierung und Integration vornehmen, damit jeder lebendige Mensch es nutzen kann. Das bietet für die gesamte Community einen enormen Optimierungsraum.

Luo Fuli: Ich denke, dass OpenClaw ein sehr revolutionäres und subversives Ereignis ist. Obwohl Leute, die tief in die Programmierung vertieft sind, möglicherweise weiterhin Code bevorzugen, werden diejenigen, die OpenClaw genutzt haben, feststellen, dass es bei der Agent-Framework-Entwicklung der Spitze von Code überlegen ist. Die neuesten Updates von Code nähern sich tatsächlich OpenClaw an.

Der größte Wert für mich liegt in der "Open-Source"-Natur: Dies fördert die intensive Beteiligung der Community. Es hebt die Obergrenze der chinesischen zweitbesten Closed-Source-Modelle sehr hoch. In den meisten Szenarien ist der Aufgabenabschluss bereits sehr nahe am neuesten Modell, und gleichzeitig wird die Untergrenze durch das Skill-System gewährleistet.

Darüber hinaus hat es die Einfallsreichtum der Menschen entfacht. Die Leute haben festgestellt, dass es im Agenten-Schicht außerhalb der Großmodelle einen riesigen Raum gibt. Mehr Menschen, nicht nur Forscher, beginnen an der AGI-Transformation teilzunehmen. Dies ersetzt in gewissem Maße repetitive Arbeit und gibt Zeit, um etwas Einfallsreicheres zu tun.

Huang Chao: Erstens bietet OpenClaw in der Interaktionsweise ein "lebendigeres" Erlebnis. Frühere Agent-Tools hatten eher einen utilitaristischen Charakter, während OpenClaw auf "Software-Eingang" basiert und näher an dem persönlichen Jarvis (J.A.R.V.I.S.) aus den Vorstellungen der Menschen ist.

Zweitens hat es bewiesen, dass ein Agent-Framework einfach und effizient sein kann. Es lässt uns neu darüber nachdenken: Brauchen wir einen All-in-one-Super-Intelligenten oder ein leichtgewichtiges Betriebssystem oder ein gerüstartiges "Kleiner Haushaltshilfe"? Es bringt die Leute in eine "Spielstimmung" und schafft die Möglichkeit, alle Tools in der Ökosystem zu nutzen. Durch die Gestaltung von Skills oder Tools können verschiedene Branchen unterstützt werden.

02 Yang Zhilin fragt Zhang Peng: Warum die Preissteigerung?

Yang Zhilin: Zhang Peng, Zhipu hat kürzlich das neue GLM Turbo-Modell veröffentlicht, das die Agenten verbessert hat. Können Sie die Unterschiede zwischen dem alten und dem neuen Modell erklären? Und was spiegeln die beobachteten Preiserhöhungsstrategien über die Marktlage wider?

Zhang Peng: Die Veröffentlichung von Turbo zielte hauptsächlich darauf ab, von "einfachen Gesprächen" zu "Aufgaben ausführen" zu wechseln. OpenClaw hat gezeigt, dass Großmodelle Aufgaben ausführen können, aber der Token-Verbrauch hinter den Aufgaben ist sehr hoch. Es sind Planung, Versuche, Debugging und die Bearbeitung unklarer Anforderungen erforderlich. Turbo hat in diesen Bereichen Optimierungen vorgenommen. Im Wesentlichen handelt es sich um eine Multi-Agenten-Kooperationsarchitektur, aber es gibt eine tendenzielle Stärkung der Fähigkeiten.

Was die Preiserhöhung betrifft, da der Token-Verbrauch bei der Ausführung von Aufgaben das 10- bis 100-fache von einfachen Fragen und Antworten ist, steigen die Kosten erheblich. Ein langfristiger Preiskampf zu niedrigen Preisen ist für die Branche nicht förderlich. Die Preisanpassung dient dazu, den normalen kommerziellen Wert wiederherzustellen, damit wir das Modell kontinuierlich optimieren und bessere Dienstleistungen anbieten können.

Yang Zhilin: Mit der Entstehung einer Ökosystem von Open-Source-Modellen und Inference-Rechenleistung und dem Explodieren der Token-Menge wandelt sich die Zeit von der Trainingszeit in die Inference-Zeit. Ich möchte Xia Lixue fragen, was das für Wuwen bedeutet?

Xia Lixue: Wir haben ständig darüber nachgedacht, wie die Infrastruktur in der AGI-Ära aussehen soll und wie man sie Schritt für Schritt realisieren kann.

Das aktuelle Problem liegt darin, dass die plötzlich gestiegene Nachfrage durch die KI höhere Optimierungsanforderungen an die Systemeffizienz stellt. Wir lösen dieses Problem durch die Verbindung von Hardware und Software. Wir haben fast alle Arten von Rechenchips angeschlossen und mehrere Dutzend chinesische Chips und Rechenleistungskluster verbunden, um die Ressourcen effektiv zu nutzen und die Umwandlungseffizienz zu verbessern. Wir haben eine standardisierte Token-Fabrik geschaffen.

Aber das reicht noch nicht. Agenten sind eher wie Menschen und können in Sekunden- oder Millisekunden-Bereich denken und Aufgaben starten. Die vorhandene Cloud-Computing-Infrastruktur ist jedoch für "Menschen" (Minuten-Ebene) ausgelegt und schränkt die Agenten ein. Wir müssen eine intelligenter gestaltete Infrastruktur schaffen, damit sie den hohen Frequenzanforderungen der KI gerecht wird.

Die Infrastruktur selbst sollte auch ein Intelligenz-Objekt sein, das sich selbst entwickeln und iterieren kann und eine autonome Organisation bildet. Die Agenten sollten besser miteinander kommunizieren und kooperieren können. Die Entwicklung der Infrastruktur und der KI sollte nicht voneinander getrennt sein, sondern eine chemische Reaktion hervorrufen, um eine echte Hardware-Software-Kooperation und eine Kooperation zwischen Algorithmen und Infrastruktur zu erreichen.

03 Über chinesische Modelle | Luo Fuli: Die Inference-Nachfrage explodiert und könnte in diesem Jahr um das 100-fache steigen

Yang Zhilin: Luo Fuli, Xiaomi hat kürzlich durch die Veröffentlichung neuer Modelle und Open-Source-Technologien einen Beitrag zur Community geleistet. Welche einzigartigen Vorteile hat Xiaomi bei der Entwicklung von Großmodellen?

Luo Fuli: Ich möchte zunächst nicht über die einzigartigen Vorteile von Xiaomi sprechen, sondern über die Vorteile chinesischer Großmodell-Teams.

Vor zwei Jahren haben chinesische Teams unter der Beschränkung der Rechenleistung, insbesondere der Internet-Bandbreite, einen Durchbruch erzielt: Unter den Bedingungen der niedrigen Rechenleistung haben sie durch die Innovation der Modellstruktur (z. B. DPCV3, M1, MA usw.) die höchste Effizienz angestrebt. Dies hat uns Mut und Vertrauen gegeben.

Obwohl die chinesischen Chips jetzt nicht mehr eingeschränkt sind, ist die Erforschung der hohen Effizienz und des niedrigen Inference-Kostens immer noch wichtig. Beispielsweise die aktuellen Hybrid-, SPA-, Linear Attention-Strukturen usw.

Warum ist die Strukturinnovation wichtig? Denn die Voraussetzung für die zunehmende Intelligenz von OpenClaw ist der Inference-Kontext. Das aktuelle Problem ist: Wie kann man bei einem langen Kontext von 1M oder 10M die Kosten niedrig und die Geschwindigkeit hoch halten? Nur so kann man hochproduktive Aufgaben anregen, die Selbstiteration des Modells erreichen und in komplexen Umgebungen die Selbstentwicklung auf der Grundlage des überlangen Kontexts realisieren.

Wir forschen derzeit an der Long Context Efficient-Architektur und an der Möglichkeit, in echten Langstreckenaufgaben Stabilität und eine hohe Obergrenze zu erreichen.

Langfristig gesehen wird die Inference-Nachfrage möglicherweise in diesem Jahr um das 100-fache steigen, und die Wettbewerbsdimension wird auf die Rechenleistung, die Inference-Chips und sogar die Energieebene absteigen.

04 Über die Agent-Iteration | Huang Chao: Das Memory sollte eine geschichtete Gestaltung haben

Yang Zhilin: Huang Chao, Sie haben Einflussreiche Agent-Projekte wie Nanobot entwickelt. Welche technologischen Richtungen sind aus der Perspektive der Entwicklung oder der Anwendung in Zukunft bemerkenswert?

Huang Chao: Bezüglich der Planung: Das aktuelle Problem besteht darin, dass viele Modelle möglicherweise nicht in der Lage sind, bei langen Aufgaben und sehr komplexen Kontexten (z. B. 500 Schritte oder länger) eine gute Planung zu erstellen. Dies liegt im Wesentlichen daran, dass die Modelle möglicherweise nicht über das erforderliche implizite Wissen verfügen, insbesondere in komplexen vertikalen Bereichen. Ich denke, dass die zukünftige Planung vieles an bereits vorhandenen komplexen Aufgabenwissen in das Modell einbauen muss.

Natürlich dienen Skill und Harness im Wesentlichen auch dazu, die Fehler, die durch die Planung entstehen, zu vermindern. Da es hochwertige Skills gibt, können die Modelle schwerere Aufgaben bewältigen. Dies ist die Lösung für die Planung.

Dann kommt das Memory: Derzeit besteht immer das Problem, dass die Informationskompression im Memory ungenau ist und die Informationen nicht richtig gespeichert werden. Bei langen Aufgaben und komplexen Szenarien wächst das Memory stark an und bringt großen Druck mit sich. Derzeit verwenden alle Arten von LLM und Agenten das einfachste Dateisystem und das Markdown-Format für das Memory und teilen die Dateien. Ich denke, dass das zukünftige Memory eine geschichtete Gestaltung haben sollte, um es universeller zu machen.

Da das aktuelle Memory-System schwerlich universell ist, beispielsweise in der Codierung, der Deep Learning und dem Multimedia-Bereich, gibt es große Unterschiede in den Modalitäten. Wie man diese Memory-Informationen gut indiziert und effizient sucht, ist immer ein Kompromiss.

Ein weiterer Punkt ist, dass nach der signifikanten Senkung der Schwelle für die Erstellung von Agenten durch OpenCode möglicherweise in Zukunft nicht nur ein Agent existieren wird. Ich habe festgestellt, dass Kimi auch einen Agent Swarm-Mechanismus hat, was bedeutet, dass jeder Mensch in Zukunft eine Gruppe von Agenten haben wird. Im Vergleich