StartseiteArtikel

Ist der Wendepunkt der Zeit schon erreicht? Wenn die Künstliche Allgemeine Intelligenz (AGI) in den nächsten zwei oder drei Jahren eintreten wird...

纪源资本2026-04-27 11:51
Was die KI betrifft, ist es kurzfristig eine Substitution, mittelfristig eine Beschleunigung und langfristig eine Expansion.

Vor drei Monaten waren die Erwartungen vieler führender Forscher, wenn es um "echte AGI", "vollständige Selbstiteration des Modells" und "das vollständige Einbringen von KI in den Arbeitsfluss" ging, eher konservativ. Die vorherrschende Meinung war, dass es noch 5 bis 10 Jahre dauern würde, bis diese wichtigen Wendepunkte eintreten. Heute würden viele von ihnen ihre Antwort auf diese Frage auf 2 bis 3 Jahre ändern.

Vor drei Monaten befürchteten viele, dass der Blase in der Branche platzen würde, bevor die KI wirklich entwickelt sei.

Heute hat sich die Sorge in die Frage gewandelt: Entwickelt sich die KI vielleicht zu schnell? Wird mich sie ersetzen?

Warum wird an diesem Zeitpunkt das Tempo der KI-Entwicklung neu bewertet? Denn etwas ist passiert: Das vierte Skalierungsgesetz (scaling law) der Künstlichen Intelligenz hat begonnen, Fahrt aufzunehmen - die Skalierung von Agenten (agent scaling) steigt steil an.

Bisher haben wir bereits drei Skalierungsgesetze erlebt:

Das erste ist das Skalierungsgesetz für das Vortraining (pretraining scaling law), vertreten durch GPT.

Das zweite ist das Skalierungsgesetz für das Nachtraining (post-training) und die verstärkte Lernweise (RL scaling law), vertreten durch die OpenAI O-Serie.

Das dritte ist die Skalierung der Inferenz (scale inference) und die Skalierung der Berechnungen bei der Prüfung (test-time compute), wie etwa die Arbeit von Google Deep Think.

Viele glauben, dass die Skalierung der auf Token-Vorhersage basierenden autoregressiven Technologie (next token prediction) an ihre Grenzen stößt und die Branche ein neues Paradigma benötigt. Wenn wir jedoch die Leistung von Agenten in Bereichen wie der Programmierung betrachten, können wir erkennen, dass das bestehende Paradigma noch lange nicht ausgereizt ist. Das vierte Skalierungsgesetz, basierend auf Agenten, entwickelt sich und evolviert mit einer Geschwindigkeit, die viele überrascht.

Was heute wirklich passiert, ist nicht, dass die Skalierung versagt, sondern dass sich das Objekt der Skalierung geändert hat. Früher verstand man unter Skalierung hauptsächlich: Daten + Parameter + Rechenleistung. Heute ist jedoch wichtiger: Agenten + System + Rückkopplungsschleife.

Und diese Branchenveränderung, die die Entwicklung der Künstlichen Intelligenz beeinflussen kann, hat sich in den letzten drei Monaten ereignet.

Was ist in den letzten drei Monaten passiert?

Bevor wir die letzten drei Monate besprechen, werfen wir einen Blick auf eine frühere Zeit.

Im Jahr 2017 tauchte das Transformer-Neuronale Netzwerk auf, das im Wesentlichen der gesamten KI-Branche eine einheitliche Architektur für eine kontinuierliche Skalierung (scale) bot. Es ermöglichte es der Branche erstmals, klar zu erkennen, dass viele verschiedene Aufgaben in einem einheitlichen Paradigma zusammengefasst werden können und die Leistungsfähigkeit durch skalierbares Training kontinuierlich gesteigert werden kann.

Im Jahr 2018 gingen GPT und BERT zwei typische Wege. Das erste ist eher generativ, das zweite eher verstehensorientiert.

Später ging der Weg von GPT weiter. Dies liegt nicht daran, dass es in einem bestimmten Benchmark immer besser als BERT ist, sondern daran, dass es besser als ein universeller Schnittstelle für vielfältige menschliche Verhaltensweisen geeignet ist. Menschen interagieren mit der Welt nicht nur durch Klassifizierung und Extraktion, sondern geben auch kontinuierlich Anweisungen, setzen Ziele und generieren, modifizieren, planen und führen Aktionen aus. Aus dieser Perspektive hat der Weg von GPT bereits den Boden für die Agenten-Phase bereitet.

Später kamen GPT-2 und GPT-3 auf den Markt. In dieser Phase war es wichtig, dass man erstmals sah, dass Skalierung (scale) die Entstehung von universellen Fähigkeiten bewirken kann.

Im Jahr 2022 brachte ChatGPT und RLHF einen großen Wendepunkt. Ab diesem Zeitpunkt konnte das Modell nicht nur "weiter schreiben", sondern auch "auf menschliche Absichten hin handeln". Dieser Schritt war besonders wichtig, denn er wandelte das Modell von einem statistischen "Token-Vorhersager" in eine Arbeits-Schnittstelle.

Später zog das Inferenzmodell (Reasoning Model), vertreten durch o1, das Interesse der Branche wieder auf hochwertige Aufgaben wie Mathematik und Programmierung zurück. Die Botschaft war klar: Nicht alle Token sind gleich wertvoll. Die Branche benötigt Token, die in der Lage sind, kontinuierlich in hochwertigen Problemen zu leisten und in komplexen Aufgaben konsistent zu bleiben.

Die Künstliche Intelligenz hat sich entlang dieser historischen Linie bis heute in eine neue Phase entwickelt: Die Agentenausführung (Agent Execution). Das Modell befriedigt sich nicht mehr nur mit der Beantwortung von Fragen, sondern beginnt, tatsächlich für den Benutzer tätig zu werden.

Wenn im vergangenen Jahrhunderthälfte noch viele führende Forscher in Silicon Valley der Meinung waren, dass die Branche ein neues Paradigma (paradigm) benötige - vielleicht kontinuierliches Lernen (continual learning) oder Online-Lernen (online learning) - so ist heute die Meinung immer mehr dahingehend gewandelt, dass wir vielleicht nicht unbedingt auf ein völlig neues Paradigma warten müssen. Es könnte genügen, die Agentenausführung auf der Grundlage des bestehenden Paradigmas schnell zu skalieren.

In den letzten drei Monaten hat die Branche nicht nur "einen Anstieg der Modell-Benchmark-Werte" gezeigt, sondern die KI beginnt tatsächlich zu arbeiten - sie wandelt sich von einem Werkzeug in einen Agenten.

Bisher hatte man die Vorstellung, dass die KI auf eine Frage mit einer Antwort reagiert - im Wesentlichen war sie ein reaktives System, ein Frage-Antwort-System, ein passives System. Heute verhält sich die KI jedoch natürlicher, genauer und menschlicher. Sie ist wie ein Kollege oder sogar ein Team. Früher war die KI wie eine aufrufbare Datenbank, ein Exponat. Heute ist sie eher ein Entität, der man Arbeitsaufgaben übertragen kann, eine Produktions-Einheit.

In den letzten drei Monaten haben viele zuvor verstreute Fäden plötzlich einen Kreis geschlossen.

Da die Branche in der technologischen Entwicklung die Agentenausführung erreicht hat, haben Produkte wie Claude Opus 4.6, GPT-5.3-Codex und GPT-5.4 in dieser Zeit den Fokus der gesamten Branche auf Programmierung, Agenten und langfristige Aufgaben (long-running tasks) gelenkt. Dadurch haben viele Teams in Silicon Valley tatsächlich eine Arbeitsweise übernommen, in der ein Mensch "ein Team von Agenten" leitet. Viele Unternehmen verlangen nun von ihren Mitarbeitern, dass sie strukturierte Jobbeschreibungen (skill) verfassen, um ihre eigenen Agenten zu "züchten". Menschen beginnen, in der Ingenieursarbeit die "Harness Engineering" zu erforschen: Wie kann man die Umgebung aufbauen, wie kann man einen Rückkopplungskreis erstellen und wie kann man die Agenten in echten Aufgaben immer stärker machen?

Schließlich wirken sich diese Logiken auf viele reale Fragen wie Startup-Richtungen, Organisationsmodelle, Personalentscheidungen, Investitionsmöglichkeiten, Multimodalität und Robotik-Technologien aus.

In diesen letzten drei sehr wichtigen Monaten haben wir nicht nur einen einzelnen technologischen Durchbruch gesehen, nicht "dass plötzlich ein Modell etwas schlauer geworden ist", sondern die gesamte logische Kette der Branche hat sich vervollständigt.

Wenn wir uns in diesen drei Monaten noch genauer fokussieren möchten, können wir uns vielleicht auf die drei Produkte konzentrieren, die bereits erwähnt wurden:

Am 5. Februar 2026 veröffentlichte Anthropic Claude Opus 4.6; am gleichen Tag veröffentlichte OpenAI GPT-5.3-Codex; einen Monat später, am 5. März 2026, veröffentlichte OpenAI GPT-5.4.

Ihre gemeinsame Eigenschaft ist, dass, wenn man sich nur die SWE-Bench-Liste ansieht, ihre Punktzahl nur um 1 - 2 Punkte gestiegen ist. Auf der Ebene des gesamten Modells jedoch haben sie bahnbrechende Agenten-Fähigkeiten entwickelt.

Wenn wir uns die Veröffentlichung dieser Produkte ansehen, können wir mindestens drei Dinge feststellen:

Erstens hat sich der Rhythmus der Modell-Iteration von "jährlich" auf "monatlich" geändert.

Zweitens liegt der Schwerpunkt, den führende Labore öffentlich betonen, nicht mehr nur auf dem Wissensumfang und der Chat-Erfahrung, sondern auf Programmierung, Agenten, Toolkits und professionellem Arbeiten.

Drittens reifen Produkte und der reale Arbeitsfluss gleichzeitig. Dies bedeutet, dass die bestehende Technologie nicht mehr nur ein Labor-Konzept ist, sondern tatsächlich in die Produktions-Einheiten der realen Welt eintritt.

Die KI hat sich für Agenten entschieden.

Die Agenten haben sich für die Programmierung entschieden.

Der Bereich, in dem das vierte Skalierungsgesetz am deutlichsten sichtbar wird, ist die Agenten-Programmierung.

Frühere KI-Programmierassistenten (coding assistant) halfen dem Benutzer, seinen Code zu vervollständigen, während der Benutzer den Code schrieb.

Heute erhält der Agent in der Agenten-Programmierung (agentic coding) nicht nur eine Frage, sondern ein Ziel. Er teilt die Aufgabe selbst auf, wählt die Werkzeuge, liest die Dokumentation, schreibt den Code, führt Tests durch, sucht nach Fehlern, behebt Bugs und liefert schließlich das Ergebnis zurück.

Der Unterschied zwischen diesen beiden Ansätzen ist nicht nur eine 20% - oder 30% -ige Leistungserhöhung, sondern eine qualitative Veränderung der Rolle. Früher war der Benutzer der Hauptprogrammierer, und die KI war der Assistent. Heute ist der Benutzer eher wie ein Projektmanager, und die KI ist eher wie ein Ingenieurteam. Wenn man eine nicht ganz exakte, aber anschauliche Analogie verwenden möchte: Die heutige Agenten-Programmierung nähert sich der Stufe L4 im autonomen Fahren - es heißt nicht, dass kein Mensch beteiligt ist, sondern dass der Mensch nicht mehr an jedem Schritt beteiligt sein muss und nicht mehr jedes Kilometer selbst fahren muss. Der Benutzer muss nicht ständig am Lenkrad halten, sondern kann einfach im Fahrersitz sitzen.

Die Produktivitätsformel hat sich geändert. Früher war die Leistung eines Ingenieurs ungefähr gleich: Zeit × Fähigkeit. Jetzt wird der Formel ein Koeffizient hinzugefügt: Zeit × Fähigkeit × Anzahl der Agenten. Die KI gibt uns nicht nur "höhere Effizienz", sondern skalierbare Fähigkeiten. Der Benutzer erhält nicht einen "schnelleren" oder "schlaueren" Selbst, sondern einen "verstärkten" Selbst.

OpenAI hat in einem Entwickler-Blog im Februar 2026 ein sehr repräsentatives Beispiel gezeigt: GPT-5.3-Codex hat in einem leeren Repo etwa 25 Stunden lang laufen gelassen, ungefähr 13 Millionen Tokens verbraucht und etwa 30.000 Codezeilen generiert - das ist offensichtlich für einen normalen menschlichen Ingenieur nicht möglich. Dies bedeutet, dass die KI nicht nur den durchschnittlichen IQ-Wert der Welt erhöht, sondern auch die Zeitdimension verändert. Sie ist besser als der Mensch darin, mit der Zeit perfekt zu kooperieren und somit bessere Skalierungseffekte zu erzielen.

Die Agenten-Programmierung eignet sich von Natur aus, um neue Skalierungsgesetze zu schaffen, weil sie mehrere sehr wichtige Bedingungen erfüllt:

Erstens gibt es in der Agenten-Programmierung eine sehr direkte und überprüfbare Motivation (verifiable reward). Ob der Code läuft, ob die Tests bestanden werden, ob die Bugs behoben sind und ob das Ergebnis den Vorgaben entspricht, all diese Rückmeldungen kommen sehr direkt. Es ist keine subjektive Bewertung der menschlichen Präferenzen oder eine besonders komplexe subjektive Anpassung erforderlich.

Zweitens können