Tang Jie/Yang Zhilin/Lin Junyang/Yao Shunyu treten selten gemeinsam auf. Die "Vier Könige der Kognitivemuster" diskutieren über chinesisches AGI.
Text | Zhou Xinyu, Deng Yongyi -> Text | Zhou Xinyu, Deng Yongyi (translated to: Text | Zhou Xinyu, Deng Yongyi)
Compiled by | Wang Xinyi, Wei Ning -> Compiled by | Wang Xinyi, Wei Ning
Edited by | Su Jianxun -> Edited by | Su Jianxun
Am 10. Januar 2026 kamen auf der AGI-Next Frontier Summit, die von der Key Laboratory of Beijing for Basic Models of Tsinghua University und Zhipu AI initiiert wurde, die vier wichtigsten Akteure des chinesischen großen Modells selten zusammen:
Zhipu, das gerade am 8. Januar erfolgreich an der Hongkonger Börse notiert wurde und zugleich Veranstalter dieser geschlossenen Sitzung war, hatte als erster Referent an der Veranstaltung seinen Gründer und Chefwissenschaftler Tang Jie.
Yao Shunyu, der vor kurzem die Anstellung bei Tencent bekannt gab, trat erstmals in einer öffentlichen Umgebung auf. Nach einer kürzlich erfolgten wichtigen Umstrukturierung des Modellteams bei Tencent übernahm dieser ehemalige OpenAI-Forscher die Position des Chefwissenschaftlers im Büro des CEO.
Zusammen mit Yao Shunyu gehörte Lin Junyang, der Technologieverantwortliche von Alibaba's Qwen und der bisher jüngste P10 in der Geschichte von Alibaba, zur Großkonzern-Gruppe. Das Tongyi-Labor von Alibaba hat derzeit in Bezug auf die Anzahl der abgeleiteten Open-Source-Modelle und die Downloadzahlen weltweit die Spitzenposition.
Eine weitere wichtige Kraft bei der geschlossenen Sitzung waren die sechs aufstrebenden Unternehmen, die kürzlich in der Medienöffentlichkeit standen. Yang Zhilin, der CEO von "The Dark Side of the Moon", der bei der geschlossenen Sitzung erschien, hatte kürzlich die Bekanntgabe einer neuen Finanzierung von 500 Millionen US-Dollar gemacht.
Wenn man fragt, was der größte Konsens in China und weltweit im Bereich KI im Jahr 2025 war, dann gibt es sicherlich einen Punkt: Die Fähigkeiten des Basis-Modells bestimmen, wer in den kommenden Wettbewerben gewinnt: Wer wird die nächste Super-Eingangsmöglichkeit, das nächste große Unternehmen...
Die vier Hauptakteure der geschlossenen Sitzung kamen aus Unternehmen in verschiedenen Stadien und mit unterschiedlichen Geschäftsmodeln. Doch alle Aktionen seit 2025 hatten ein gemeinsames Thema: Die Stärkung der Position in der ersten Gruppe der Basis-Modelle und die Förderung des Geschäfts durch die Modelle.
Vor einem Jahr, als DeepSeek plötzlich auf den Markt kam, gewann die chinesische Szene der großen Modelle international durch schnelle Iterationen und aufeinanderfolgende Open-Source-Initiativen einen guten Ruf.
Aber auf der Sitzung warf Tang Jie den chinesischen Entwicklern einen Schlag ins Wasser: "Die Kluft zwischen den großen amerikanischen und chinesischen Modellen hat sich möglicherweise nicht verringert, denn die USA haben noch viele nicht freigegebene Modelle."
Wohin soll die nächste Generation der AGI eigentlich gehen? Die Gäste hatten unterschiedliche Definitionen für das Paradigma der nächsten Phase der AGI, was auch ihre unterschiedlichen Forschungsansätze bestimmte.
Nach Ansicht von Tang Jie ist die Erforschung des Chat-Paradigmas nach der Entstehung von DeepSeek grundsätzlich abgeschlossen. In der Zeit nach DeepSeek hat Zhipu, wie er es beschreibt, "gebetet" für Coding und Reasoning. Das GLM - 4.5, das Fähigkeiten in Bereichen wie Inferenz, Agentik und Coding vereint, ist ein erfolgreiches Ergebnis ihrer Wetten.
Für Yang Zhilin, der Anhänger des "Scaling Law" ist, bleibt Scaling auch in der nächsten Phase der Schwerpunkt. Aber es gibt eine neue Veränderung: Scaling bedeutet nicht nur die Anhäufung von Rechenleistung, sondern auch technische Verbesserungen auf den Ebenen der Architektur, des Optimierers und der Daten. Das Ziel ist es, dass das Modell ein besseres "Gefühl" bekommt: "Gefühl ist etwas, an das wir stark glauben. Die Intelligenz eines Modells erzeugt viele verschiedene 'Gefühle' - dadurch werden sich die Modelle nicht angleichen."
In der nächsten Phase ist das eigenständige Lernen von KI ein von allen vier Gästen geförderter Ansatz.
Allerdings besteht ein Konsens darin, dass mit der Veränderung des AGI-Forschungs - Paradigmas die Festlegung eines neuen Standards zur Messung der Intelligenz von Modellen sehr wichtig sein wird.
Yang Zhilin definiert das Intelligenzniveau von KI als die Kombination aus Token - Effizienz (Token Efficiency) und Langtextverarbeitung (Long Context): "Das bedeutet, wie stark der Vorteil Ihres Modells bei verschiedenen Kontextlängen ist."
Tang Jie hat eine ähnliche Meinung. Er beobachtete, dass die Erträge von RL und Scaling heutzutage weit geringer sind als früher. Deshalb hat er ein neues Paradigma zur Messung des Intelligenzniveaus definiert, nämlich Intelligence Efficiency, um die ROI zwischen Modell - Investment und Intelligenzgewinn zu messen.
Tatsächlich wird die Auswahl unterschiedlicher KI - Forschungs - Paradigmen eher von den Zielen bestimmt: Soll man das Intelligenz - Maximum des Modells anstreben oder die Umsetzung im praktischen Bereich betonen? Dies bestimmt die Trainingsstrategie des Modells - ob es sich um eine vertikale Integration oder eine differenzierte Ausbildung handelt.
Zu dieser Frage sind die beiden Vertreter der Großkonzerne, Lin Junyang und Yao Shunyu, sich einig: In Zukunft wird sich der Unterschied zwischen ToC und ToB immer deutlicher zeigen, und die Essenz der AGI besteht darin, echte menschliche Szenarien zu bedienen.
Yao Shunyu ist der Meinung, dass in ToC - Szenarien die vertikale Integration funktioniert - egal ob es sich um Doubao oder ChatGPT handelt, das Modell und das Produkt müssen stark miteinander gekoppelt und kontinuierlich verbessert werden, um ein gutes Benutzererlebnis zu erzielen. In ToB - Szenarien ist es genau das Gegenteil: Modellunternehmen konzentrieren sich darauf, das Modell zu stärken, während Anwendungsunternehmen versuchen, die stärksten Modelle zur Steigerung der Produktivität einzusetzen. Die beiden Bereiche sind also differenziert.
Lin Junyang ist eher der Ansicht, dass diese Differenzierung natürlich erfolgt. "Unternehmen haben nicht so viele unterschiedliche 'Gene'. Sowohl ToB als auch ToC dienen echten Menschen." Er erwähnte, dass Anthropic nicht deshalb erfolgreich ist, weil es besonders gut in Coding ist, sondern weil es häufig mit Unternehmenskunden kommuniziert und so echte Bedürfnisse erkennt - heute nimmt Coding in der API - Nutzung in den USA einen dominanten Anteil ein.
Im Folgenden finden Sie die zusammengefassten Inhalte des AGI - Next - Roundtables, bearbeitet von "Intelligent Emergence":
Li Guangmi: Shunyu, können Sie Ihre Gedanken zum Thema der Differenzierung von Modellen ausführlicher erläutern?
In Silicon Valley gibt es eine Differenzierung, und die chinesischen Modelle werden auch Open - Source. Beispielsweise hat Anthropic sich auf Coding konzentriert, während Google Gemini nicht alles unternehmen wollte, sondern sich zunächst auf die Multimodale Kompetenz konzentrierte. Ihr ehemaliger Arbeitgeber (OpenAI) konzentriert sich auf ToC. Wie ist Ihre persönliche Erfahrung, da Sie sowohl in China als auch in den USA tätig waren?
Yao Shunyu: Ich habe zwei große Eindrücke. Erstens hat sich auch der Weg der technologischen Integration und die Trennung von Modell und Anwendung in zwei Richtungen entwickelt.
Ich möchte zunächst die Differenzierung zwischen ToC und ToB erläutern. Wenn man an die Super - Apps der KI denkt, gibt es derzeit zwei: ChatGPT und Claude. Man kann sie als Vorbilder für ToC und ToB ansehen. Interessanterweise hat sich für die meisten Menschen das Gefühl beim Umgang mit ChatGPT im Vergleich zum letzten Jahr nicht so stark verändert.
Im Gegensatz dazu hat die Coding - Revolution vor einem Jahr erst begonnen. In diesem Jahr hat Claude, um es übertrieben auszudrücken, die Arbeitsweise der gesamten Computerbranche neu gestaltet. Menschen schreiben keine Code mehr, sondern kommunizieren mit dem Computer auf Englisch.
Der Kernpunkt ist, dass die meisten Menschen in ToC - Szenarien in den meisten Fällen nicht so viel Intelligenz benötigen. Vielleicht hat das Modell die Fähigkeit, abstrakte Algebra zu schreiben, verbessert, aber die meisten Menschen merken das nicht. Sie nutzen es eher als eine verbesserte Suchmaschine.
Aber in ToB - Szenarien bedeutet höhere Intelligenz höhere Produktivität und mehr Gewinn.
Ein weiteres deutlich sichtbares Merkmal ist, dass viele Menschen auf dem ToB - Markt bereit sind, einen Aufpreis für das stärkste Modell zu zahlen. Ein Modell kostet 200 US - Dollar pro Monat, ein zweitstarkes 50 US - Dollar pro Monat. Viele Amerikaner sind bereit, diesen Aufpreis zu zahlen, weil es ihre Arbeitsleistung verbessert. Ein sehr starkes Modell wie OpenAI 4.5 kann möglicherweise acht oder neun von zehn Aufgaben direkt richtig lösen, während ein schwächeres Modell möglicherweise nur fünf oder sechs. Dann müssen Sie zusätzliche Energie darauf verwenden, die Ergebnisse zu überwachen, denn Sie wissen nicht, welche fünf oder sechs Aufgaben richtig gelöst wurden.
Also habe ich ein sehr interessantes Phänomen beobachtet: Auf dem ToB - Markt wird sich der Unterschied zwischen starken und schwachen Modellen immer deutlicher zeigen.
Die zweite Beobachtung betrifft die Differenzierung zwischen vertikaler Integration und der Trennung von Modell und Anwendung. In der Vergangenheit dachte man, dass eine vertikale Integrationsfähigkeit zu besseren Ergebnissen führen würde, aber das stimmt heute nicht unbedingt. Die Modell - Ebene und die Anwendungs - Ebene erfordern unterschiedliche Fähigkeiten. Für ToB - Produktivitätsszenarien ist ein größeres vortrainiertes Modell der Schlüssel, was für Produktunternehmen jedoch schwierig zu erreichen ist.
Umgekehrt müssen auch auf der Anwendungs - und Umgebungs - Ebene viele Dinge getan werden, um ein gutes Modell effektiv einzusetzen oder die Überflussfähigkeiten des Modells auszunutzen.
Wir werden feststellen, dass in ToC - Anwendungen die vertikale Integration funktioniert. Sowohl bei ChatGPT als auch bei Doubao sind das Modell und das Produkt stark miteinander gekoppelt und werden kontinuierlich verbessert.
Aber für ToB scheint der Trend genau das Gegenteil zu sein: Modellunternehmen konzentrieren sich darauf, das Modell immer stärker zu machen; ebenfalls versuchen Anwendungsunternehmen, die besten Modelle zur Steigerung der Produktivität in verschiedenen Bereichen einzusetzen.
Li Guangmi: Sie haben kürzlich eine neue Position angetreten. Was ist Ihr Ideal für die Zukunft auf dem chinesischen Markt? Gibt es einige markante Merkmale oder Stichworte, die Sie teilen können?
Yao Shunyu: Tencent hat eher ein ToC - Profil. Wir überlegen uns, wie wir mit großen Modellen für die Benutzer mehr Wert schaffen können. Wir haben festgestellt, dass die Engpässe in ToC - Szenarien oft nicht in größeren Modellen oder stärkerer Verstärkungslernen liegen, sondern in zusätzlichem Kontext und einer geeigneten Umgebung.
Ich bringe oft ein Beispiel: Wenn Sie das Modell fragen, "Was soll ich heute essen?", wird die Antwort von ChatGPT wahrscheinlich sowohl letztes Jahr als auch dieses Jahr schlecht sein.
Um diese Frage zu verbessern, braucht man nicht ein stärkeres Modell oder eine bessere Suchmaschine, sondern mehr zusätzliche Eingaben. Wenn das Modell weiß, dass es heute kalt ist und ich etwas Warmes essen möchte, oder dass meine Frau an einem anderen Ort ist und was sie gerne essen würde... mit diesen Informationen wird die Qualität der Antwort völlig anders sein.
Wir können beispielsweise die WeChat - Chat - Nachrichten an Yuanbao weiterleiten, um dem Modell mehr nützliche Eingaben zu geben. Dies wird für die Benutzer zusätzlichen Wert schaffen.
Was ToB betrifft, ist es in China tatsächlich schwierig. Viele Unternehmen, die an Coding Agents arbeiten, müssen sich auf den ausländischen Markt konzentrieren. Wir werden uns überlegen, wie wir uns selbst am besten bedienen können.
Der Unterschied zwischen großen Unternehmen und Start - Ups bei der Arbeit an Coding ist, dass große Unternehmen bereits eine Vielzahl von Anwendungsfällen und Produktivitätssteigerungsbedürfnissen haben. Wenn unser Modell in diesen internen Szenarien besser funktioniert, hat es nicht nur einen einzigartigen Vorteil, sondern fördert auch die Entwicklung des Unternehmens. Wichtig ist auch, dass wir so vielfältigere Szenariodaten aus der realen Welt sammeln können.
Unternehmen wie Anthropic und OpenAI sind Start - Ups. Sie müssen Datenlieferanten beauftragen, die Daten zu markieren. Aber die Anzahl der von den Datenlieferanten eingestellten Mitarbeiter und die von ihnen entwickelten Szenarien sind immer begrenzt, was die Vielfalt einschränkt.
Aber wenn Sie ein Unternehmen mit 100.000 Mitarbeitern sind, können Sie viele interessante Versuche machen, um die Daten aus der realen Welt tatsächlich zu nutzen, anstatt sich nur auf Markierungsdienstleister oder Distillation zu verlassen.
Li Guangmi: Junyang, wie sehen Sie die Ökologische Nische von Qianwen in Zukunft?
Lin Junyang: Unternehmen haben nicht unbedingt so viele unterschiedliche "Gene". Sie können von Generation zu Generation geprägt werden. Beispielsweise könnte Tencent nach Shunyu's Übertritt zu einem Unternehmen mit Shunyu's "Gen" werden (lacht).
Heute dienen sowohl ToB als auch ToC echten Menschen. Also ist die Kernfrage: Wie können wir die Welt der Menschen verbessern? Selbst ToC - Produkte werden sich weiter differenzieren, beispielsweise in Richtung Medizin oder Recht.
Ich glaube eher an Anthropic, nicht weil es besonders gut in Coding ist, sondern weil es viel mit B - Kunden kommuniziert. Ich habe mit vielen amerikanischen API - Anbietern gesprochen, und sie waren alle überrascht, wie hoch der Token - Verbrauch für Coding ist. In China ist der Token - Verbrauch für Coding noch nicht so hoch.
Heute konzentriert sich Anthropic eher auf Finanz - Themen, was ebenfalls eine Chance ist, die es in den Gesprächen mit Kunden erkannt hat.
Also ist die Differenzierung wahrscheinlich eine natürliche Entwicklung. Ich vertraue eher auf die AGI und lasse es sich einfach geschehen.
Li Guangmi: Wie sieht Professor Yang Qiang die Differenzierungsfrage?
Yang Qiang: Seit langem hat die Wissenschaftszweig die Rolle des Beobachters gespielt, während die Industrie in der Spitze vorangetrieben hat. Dadurch machen jetzt auch viele Wissenschaftler Dinge, die ursprünglich der Industrie vorbehalten waren.
Dies ist eine gute Sache. Zu Beginn der Astrophysik handelte es sich hauptsächlich um Beobachtungen, bevor es erst später zu Theorien kam. Wenn viele große Modelle in einem stabilen Zustand sind, sollte die Wissenschaft mitkommen.
Die Wissenschaft muss sich mit einigen Fragen befassen,