StartseiteArtikel

Gestern Nacht haben OpenAI und Anthropic einen Schlagabtausch ausgefochten. Experten sagen: Im Jahr 2026 werden Agenten in der Industrie überall zu finden sein.

极客邦科技InfoQ2026-02-06 18:38
Wenn man das Künstliche-Intelligenz-Branche im Jahr 2025 mit einem Wort beschreiben müsste, dann wäre es "Kritisch".

Künstliche Intelligenz befindet sich derzeit in einer Plateaustufe des stufenweisen Wachstums. Die Erträge des gegenwärtigen Forschungsansatzes konvergieren, und der nächste Sprung erfordert einen völlig neuen Paradigmenbruch. Gleichzeitig reift die industrielle Anwendung beschleunigt, und das Jahr 2026 verspricht ein Schlüsseljahr für die breite Implementierung von Agenten zu werden.

Gestern Abend haben OpenAI und Anthropic fast gleichzeitig ihre neuesten Modell-Updates vorgestellt - OpenAI Codex 5.3 und Claude 4.6. Ohne die Krachboom eines Produktrückblicks und ohne aufrüttelnde Erzählungen, aber in der Entwicklergemeinschaft und auf der Branchenseite wurden diese beiden Updates dennoch schnell als ein deutlicher Hinweis interpretiert: Die Fähigkeiten von Large Language Modellen nähern sich einem vorläufigen Limit, und die Branche sucht kollektiv nach neuen Durchbrüchen.

Wenn man das Jahr 2025 in der KI-Branche mit einem Wort beschreiben müsste, wäre es "Kontrollpunkt". Einerseits haben Large Language Modelle bereits ein hohes Niveau an Allgemeinfähigkeiten erreicht und nähern sich in Bereichen wie Sprachverständnis, logischer Schlussfolgerung und Codegenerierung dem Niveau menschlicher Experten oder übertreffen es sogar. Andererseits konvergieren die Grenzerträge schnell, wenn man versucht, die Größe und die Rechenleistung entlang des bestehenden Ansatzes zu erhöhen. Die Technologie steht nicht still, aber die Frage, "Woher kommt die nächste qualitative Veränderung?", ist ein Problem, mit dem sich die gesamte Branche auseinandersetzen muss.

Was ist die Richtung des zukünftigen Paradigmenbruchs? Wo liegt die wahre Lücke im Wettlauf zwischen China und den USA? Wie können Agenten von der Theorie zur praktischen industriellen Anwendung kommen? Diese Fragen durchziehen die gesamte Branche, und im Jahr 2026 werden sie nicht mehr ignoriert werden können.

Kürzlich haben wir mit Zheng Shuxin, dem stellvertretenden Direktor des Zhongguancun Institute for Artificial Intelligence und einem Assistentenprofessor an der Zhongguancun College in Beijing (im Folgenden "Zhongguancun Institute") eine tiefe Interview geführt. Zheng Shuxin ist der Ansicht, dass die Künstliche Intelligenz sich in einer Plateaustufe des stufenweisen Wachstums befindet, und der nächste Sprung erfordert einen neuen Paradigmenbruch. Gleichzeitig weist er darauf hin, dass die Kernlücke im gegenwärtigen Wettlauf zwischen China und den USA nicht in der technologischen Route, sondern in der Verfügbarkeit von hochwertigen Daten und Rechenleistung liegt.

Auf der Branchenseite glaubt Zheng Shuxin, dass es immer einen Zeitversatz zwischen technologischen Durchbrüchen und industrieller Verbreitung gibt. Dies ist eine historische Norm und kein Misserfolg. So führte die Erfindung der Dampfmaschine nicht sofort zur industriellen Revolution. Ebenso hängt die Umsetzung von KI-Fähigkeiten in breiter Ebene von der allmählichen Reife der unterstützenden Systeme und Produktformen ab. Nach seiner Meinung wird das Jahr 2026 das Jahr sein, in dem Agenten in realen Szenarien in großem Umfang eingesetzt werden, und neue Paradigmen wie Coding Agenten verändern die Grundlagen der traditionellen Softwareentwicklung.

Im Folgenden finden Sie die Transkription des Interviews, bearbeitet und zusammengefasst von InfoQ:

Einführung: Persönliche Präsentation und Forschungsgeschichte

InfoQ: Sie haben sich viele Jahre lang mit Künstlicher Intelligenz befasst. Können Sie uns Ihre Forschungsreise und Ihre Hauptarbeiten teilen?

Zheng Shuxin: Ich habe mich vor über einem Jahrzehnt mit Künstlicher Intelligenz beschäftigt und mich seitdem auf das Feld der Large Language Modelle spezialisiert. Anfangs konzentrierte ich mich auf die Optimierung von großen verteilten Systemen und baute damals das größte asynchrone verteilte Trainingssystem von Microsoft auf. Danach wandte ich mich der Forschung an Large Language Modellen zu und habe Methoden wie Pre-LN zur Optimierung des Trainings und Verbesserung der Architektur vorgeschlagen, die die Effizienz des Modelltrainings um etwa eine Größenordnung erhöht haben. Diese Ergebnisse wurden später von vielen führenden Large Language Modellen übernommen (z. B. dem OpenAI Open Source Modell gpt-oss).

Während der Forschung an allgemeinen Modellen und Methoden habe ich die Graphormer-Architektur entwickelt, die heute eines der führenden Basismodelle im Bereich des Graphenlernens ist. Kürzlich habe ich mich darum bemüht, Large Language Modelle und generative KI-Technologien in den Bereich der wissenschaftlichen Entdeckungen einzuführen. Der von mir vorgeschlagene Rahmen zur Vorhersage des molekularen Gleichgewichtsverteilungen hat die Grenzen der traditionellen Biomolekülsimulationen überwunden und die Effizienz der Molekulardynamiksimulationen um Hunderttausende von Malen erhöht. Die dazugehörigen Ergebnisse wurden in Top-Fachzeitschriften wie der Coverseite von "Science" und "Nature Machine Intelligence" veröffentlicht.

Ende 2024 bin ich dem Zhongguancun Institute beigetreten und bin derzeit Assistentenprofessor an der Zhongguancun College und stellvertretender Direktor des Instituts. Ich bin für die Forschung und die strategische Planung im Bereich der Large Language Modelle im AI Basisabteilung zuständig.

InfoQ: Sie haben gerade erwähnt, dass Sie derzeit für die Forschung im Bereich der Large Language Modelle im AI Basisabteilung des Zhongguancun Institute zuständig sind. Das Zhongguancun Institute hat die Mission, das KI-Innovationsökosystem in Beijing und sogar auf nationaler Ebene aufzubauen. Können Sie uns die Kernziele des Instituts beschreiben? Welche Rolle spielt die AI Basisabteilung darin?

Zheng Shuxin: Die Zhongguancun College in Beijing und das Zhongguancun Institute for Artificial Intelligence sind zwei Seiten einer Medaille und entwickeln sich integriert. Sie sind ein neues Experiment in der Integration von Bildung, Wissenschaft und Talent und die "Quadratwurzel" eines neuen Forschungseinstituts. Die Zhongguancun College hat die wichtige Aufgabe, Führungskräfte in der KI-Branche auszubilden und ist ein "Versuchsfeld" für die nationale Reform der Integration von Bildung, Wissenschaft und Talent. Das Zhongguancun Institute für Künstliche Intelligenz und die Zhongguancun College arbeiten gemeinsam an der Forschung und Entwicklung von zukunftsträchtigen, branchenrelevanten und aufrüttelnden KI-Technologien und an ihrer industriellen Umsetzung.

Die AI Basisabteilung in diesem Rahmen ist für die konkrete technische Forschung und die strategische Planung verantwortlich. Unser strategisches Ziel ist es, die Schlüsselteile für die zweite Hälfte der Entwicklung von AGI zu ergänzen, auf der Branchenseite Kernvariablen zu entwickeln, die die Branchenlogik tatsächlich verändern, und auf der Talentseite Führungskräfte zu bilden, die sowohl technische Fähigkeiten als auch wissenschaftliche Intuition besitzen.

Übersicht über die Entwicklung der KI

InfoQ: Stehen wir am Beginn des Jahres 2026, was halten Sie für die wichtigsten Probleme, die China derzeit bei der Entwicklung der KI lösen muss?

Zheng Shuxin: Die Entwicklung der KI befindet sich in einer Plateaustufe des stufenweisen Wachstums. Die Grenzerträge entlang des bestehenden technologischen Ansatzes nehmen ab, und es muss eine neue Richtung für den nächsten Durchbruch gefunden werden. Gleichzeitig hat die KI auch zwei Merkmale: Sie ist eine Technologie, die in die Industrie verwurzelt ist, und dieser Wettlauf hat ein festes Zeitfenster. Es ist sehr wahrscheinlich, dass die Ergebnisse in 3 - 5 Jahren sichtbar sein werden.

Auf der Grundlage dieser Einschätzungen denke ich, dass es derzeit zwei Kernprobleme gibt, auf die wir uns konzentrieren sollten. Das erste ist auf strategischer Ebene: Hinter diesem Paradigmenwettlauf steckt der wissenschaftlich-technologische Wettlauf zwischen China und den USA. Wie können wir den Vorsprung ergreifen und ein eigenes Ökosystem entwickeln? Das zweite ist auf Anwendungsniveau: Wie kann die KI tatsächlich das BIP ankurbeln und eine hochwertige Entwicklung ermöglichen? Der Penetrationsgrad der KI in der Industrie ist bereits sehr hoch, aber ihr tatsächlicher Beitrag zum BIP ist noch begrenzt.

Aktueller Stand der KI-Technologieentwicklung

InfoQ: Sie haben gerade erwähnt, dass das Schlüsselproblem auf technischer Ebene darin besteht, im wissenschaftlich-technologischen Wettlauf zwischen China und den USA den Vorsprung zu ergreifen. Können Sie ausführlicher erklären, wie Sie den aktuellen Entwicklungszustand der KI-Technologie einschätzen? Was wird die Richtung des nächsten technologischen Durchbruchs sein?

Zheng Shuxin: Die Entwicklung der Künstlichen Intelligenz folgt dem Gesetz des "stufenweisen Sprungs". Der letzte große Sprung wurde durch die Skalengesetze von GPT verursacht. Aber jetzt ist die Verbesserung der Intelligenz in eine Plateaustufe geraten, und die Erträge entlang des bestehenden technologischen Ansatzes nehmen ab. In letzter Zeit gibt es mehrere Anzeichen für dies. Erstens stößt das Pre-Training-Paradigma an seine Grenzen. Die Vorteile der Skalengesetze sind fast aufgebraucht, die Menge an hochwertigen Internetdaten, die für das Modelltraining verwendet werden können, hat ein Maximum erreicht, und die Grenzerträge bei der weiteren Vergrößerung des Modells nehmen deutlich ab. Zweitens hat auch das Post-Training-Paradigma seine Grenzen. Derzeit wenden sich die meisten Unternehmen in der Branche einer fein abgestimmten Gestaltung der Belohnungsfunktionen zu. Die Komplexität der Gestaltung der Belohnungsfunktionen ist inzwischen vergleichbar mit derjenigen der Feature-Engineering-Zeit. Im Wesentlichen handelt es sich um eine ständige Feinabstimmung innerhalb des bestehenden Rahmens. Neuere Studien von Meta zeigen auch, dass der Zuwachsraum des Post-Trainings möglicherweise geringer ist, als erwartet. Wenn die These "Weniger Struktur, mehr Intelligenz" stimmt, dann ist es offenbar zweifelhaft, ob die bestehenden Strategien uns bis zum AGI führen können.

Was aber ist die Richtung des nächsten Durchbruchs? Möglicherweise ist es erforderlich, die Schwächen des gegenwärtigen KI-Paradigmas zu verbessern und neue Lösungsansätze zu finden, wie z. B. die Überwindung der Engpässe bei Gedächtnis und kontinuierlichem Lernen, die Verbindung von Erfahrungslernen und Selbstspiel, die Verbesserung der Unterstützung für lange Kontexte und die Erforschung neuer Trainingsmethoden für dynamische Daten. Es ist aber auch möglich, dass es erforderlich ist, völlig neue technologische Paradigmen zu erkunden, wie z. B. von der Neurowissenschaft inspizierte Hardware-Software-Architekturen, neue Datenquellen, neue Modellierungsansätze wie diskrete Diffusion und neue Theorien zur Intelligenz und Gestaltung von Belohnungsfunktionen. Die Erforschung des nächsten Paradigmas ist jedoch riskant und erfordert viel Zeit. Für kommerzielle Unternehmen hat dies daher oft eine niedrige Priorität, da sie kurzfristige Ergebnisse und Renditen für die Aktionäre berücksichtigen müssen. Die meisten Universitäten haben zwar akademische Freiheiten, sind aber in Bezug auf Rechenleistung und technische Ressourcen eingeschränkt. Aus diesem Grund möchte das Zhongguancun Institute an diesem Punkt eine einzigartige Rolle spielen und schwierige, aber richtige Dinge tun. Es plant, sich sowohl auf den Weiterentwicklung des bestehenden Ansatzes als auch auf die Erforschung neuer Paradigmen zu konzentrieren.

InfoQ: Im Jahr 2025 war der Begriff "Agent" sehr populär. Einige verstehen Agenten als die Anwendungs-Ebene von Large Language Modellen, andere als eine praktische Anwendungsform. Wie bewerten Sie den aktuellen Entwicklungsstand von KI-Agenten?

Zheng Shuxin: Die meisten Menschen verstehen Agenten entweder als ein technologisches Forschungsfeld oder als eine praktische Anwendungsform. In meiner Meinung sind Agenten jedoch Basismodelle, und es ist derzeit der Haupttechnologieansatz, um die Intelligenz von Modellen zu verbessern.

Warum? Der grundlegende Grund für die abnehmenden Grenzerträge des Pre-Training-Skalengesetzes liegt darin, dass die Menge an hochwertigen Internetdaten nahezu erschöpft ist. Eine der zentralen Lösungen besteht darin, neue Datenquellen zu finden - synthetische Daten. Im Wesentlichen handelt es sich dabei um eine Suche, die in einem hochdimensionalen Sprachraum mit Hilfe eines vorgespeicherten Large Language Modells nach neuen, wertvollen Daten sucht. Auf Basis dieser synthetischen Daten können die Modellleistungen weiter verbessert werden. Das Inferenzmodell o1 beispielsweise erzeugt hochwertige Denkketten-Daten im Sprachraum durch Suche und verstärktes Lernen. Agenten erweitern darüber hinaus die Grenzen des Suchraums, interagieren mit der Umgebung und nutzen Werkzeuge, um völlig neue, hochwertige Daten zu entdecken. Es könnte also neue Skalengesetze geben.

InfoQ: Welche technologischen Durchbrüche erwarten Sie im Bereich der KI-Agenten im Jahr 2026?

Zheng Shuxin: Ähnlich wie im gesamten KI-Bereich erwarte ich, dass es sowohl Verbesserungen des bestehenden Paradigmas als auch neue Trainings-Paradigmen geben wird.

Bei den Verbesserungen des bestehenden Paradigmas gibt es einige Richtungen, die es zu beobachten gilt. Erstens das Lernen zur Laufzeit (Runtime Learning), damit Agenten während ihrer Laufzeit kontinuierlich lernen und verbessern können, anstatt nur von den Fähigkeiten aus der Vorhersagephase abhängig zu sein. Zweitens ist das Gedächtnis-Mechanismus wichtig, da Agenten in langfristigen Aufgaben die Kontext-Kontinuität aufrechterhalten müssen und in der Lage sein müssen, historische Informationen effektiv zu speichern und aufzurufen. Darüber hinaus sind die Probleme der Halluzination und Zuverlässigkeit, die nächste Generation von Bewertungsmethoden sowie die Gesamt-Verfügbarkeit und Intelligenz von Agentensystemen ebenfalls Schlüsselthemen.

Bei der Erforschung neuer Paradigmen könnten sich selbst-iterative Trainingsmethoden und intrinsisch motivierte Belohnungsmechanismen als Sprungbrett für Agenten erweisen.

Diese sind auch die Schwerpunkte des Forschungsprogramms des Zhongguancun Institute im Bereich der Large Language Modelle.

InfoQ: Welchen Vorteilen und welchen Schwächen sehen Sie im Vergleich zu den ausländischen Ländern in der KI-Forschung in China? Welche "Schlüssel-Lektion" müssen wir in globalen Wettbewerb der KI unbedingt lernen?

Zheng Shuxin: China hat eine riesige Anzahl von Talenten und eine starke mathematische Tradition. Viele Ingenieure verfügen über solide mathematische Kenntnisse und hervorragende Fähigkeiten in der technischen Umsetzung. Gleichzeitig hat China eine breite Palette von Industrien, vielfältige Anwendungsfälle und einen riesigen Markt. Dieses einzigartige Ökosystem bietet eine natürliche Testumgebung für die Umsetzung von KI und hat auch eine starke Produktivitätskapazität hervorgebracht.

Was die Schwächen angeht, gibt es derzeit zwei Kernprobleme:

Das erste Problem ist die Datenlage. Derzeit sind die technologischen Ansätze zwischen China und den USA relativ transparent. Der größte Unterschied zwischen den führenden chinesischen Unternehmen und den US-amerikanischen Firmen liegt in den Daten, die der Haupttreiber für die Verbesserung der Intelligenz von Large Language Modellen sind. Die USA sammeln systematisch langfristige, komplexe und anspruchsvolle professionelle Daten. Diese Daten zeichnen sich durch lange Inferenzketten, mehrfache Interaktionen und die Nutzung verschiedener Werkzeuge aus, und der Wert einer einzelnen Dateneinheit kann bis zu tausend US-Dollar betragen. Dies ist auch der Schwerpunkt der Forschung von Unternehmen wie OpenAI. Derzeit gibt es bereits spezielle Firmen, die für die großen Unternehmen expertenmäßiges Wissen und Daten in Bereichen wie Programmierung, Finanzen, Recht und Beratung sammeln. Es ist vorhersehbar, dass es im Jahr 2026 in diesen professionellen Bereichen deutliche Fortschritte geben wird. Hier sind wir noch hinterher.

Das zweite Problem ist die Rechenleistung. Ich bin der Ansicht, dass die Rechenleistung das erste Prinzip für die Verbesserung der Intelligenz ist - der Fortschritt der Wissenschaft hängt von der Vielfalt der Explorationen ab, und die Vielfalt der Explorationen hängt von ausreiche