StartseiteArtikel

Zhang Hongjiang's Rede: Es besteht eine große Lücke im AI-Rechenleistungskapital zwischen China und den USA, und Agenten werden die menschliche Organisationsstruktur verändern.

智东西2025-09-11 15:20
12 Bilder erklären die Chancen des künstlichen Intelligenzes in China.

Zhidx berichtete am 11. September. Heute hielt Zhang Hongjiang, Investmentpartner von Source Code Capital und ausländischer Mitglied der US National Academy of Engineering, auf der Eröffnungsveranstaltung der 2025 Inclusion·Bundang-Konferenz einen Themenvortrag. Er ist der Meinung, dass dieses Jahr ein Wendepunkt für die Verbreitung von Large Language Model (LLM)-Anwendungen ist.

Seit der Veröffentlichung von ChatGPT vor zwei Jahren und der Entstehung von DeepSeek Anfang dieses Jahres gibt es mehrere offensichtliche Trends in der Entwicklung der globalen LLM-Branche: LLM wird in Zukunft viele sehr wichtige Anwendungen beeinflussen, wobei die Suche am ersten Platz steht; LLM-bezogene Anwendungen entwickeln sich von Problemlösungstools zu AI-Assistenten und AI-Komponenten; Das Auftauchen des DeepSeek-Modells treibt den Bedarf an Rechenleistung an, und der Rechenleistungsbedarf von LLM wird kontinuierlich steigen; Die Fähigkeit, ein großes Rechenleistungssystem in einer einzigen IDC zu errichten, wird immer wichtiger.

Zhang Hongjiang bezeichnet das Ökosystem, in dem das Modell die Entwicklung der unteren Chips, der gesamten Cloud-Computing-Branche, der Elektrizitäts- und Energiebranche antreibt, als Rechenleistungssystem-Ökosystemkette (AI’s Industrial Scaling Up). Heute baut die USA sehr schnell ihre gesamten Rechenleistung-IDC an, was uns auch darauf hinweist, schnell bei der Chip- und IDC-Konstruktion voranzuschreiten.

Schließlich sprach er über seine Überlegungen zur Entwicklung von Agenten. Wenn eine Person und eine Gruppe von Agenten ein Unternehmen bilden, wird es eine beispiellose Effizienzsteigerung geben. Dies erfordert jedoch, dass die Gesellschaft über die Beschäftigung von jungen Menschen, die soziale Struktur und die Veränderungen im Bildungssystem nachdenkt.

Im Folgenden ist eine Zusammenfassung der Highlights von Zhang Hongjiangs Vortrag:

01.

DeepSeek treibt den Bedarf an Rechenleistung an

LLM hat sich von einem Tool zu AI-Komponenten entwickelt

Zhang Hongjiang sagte, wenn man die Fortschritte der letzten sechs Monate betrachtet, ist der erste aufregendste Fortschritt das Auftauchen von DeepSeek. DeepSeek hat den Rekord für die Zeit, in der eine Anwendung 100 Millionen Benutzer erreicht, in der menschlichen Geschichte gebrochen und binnen sieben Tagen 100 Millionen Benutzer gewonnen.

Von einem anderen Blickwinkel ist DeepSeek sowohl leistungsstark als auch kostengünstig. Bei seiner Veröffentlichung war die Leistung des DeepSeek-Modells ähnlich der des besten Modells der damaligen Welt, und die Kosten betrugen nur einen Bruchteil der anderer Modelle.

Bedeutet dies, dass Chips oder Rechenleistung nicht mehr wichtig sind? Zhang Hongjiang ist der Meinung, dass Menschen, die so denken, offensichtlich auf dem Schlauch liegen. Ressourcen sind ein Grundgesetz der Ökonomie. Wenn die Kosten sinken, steigt der Bedarf in einem größeren Maßstab. Das heißt, das Auftauchen des DeepSeek-Modells wird den Bedarf an Rechenleistung anheben.

Seit der Veröffentlichung von ChatGPT, das als Markenzeichen für LLM gilt, sind mehr als zwei Jahre vergangen. Man kann die Benutzerbindung anhand des Verhältnisses von täglich aktiven Benutzern zu monatlich aktiven Benutzern messen. Bei der Veröffentlichung von ChatGPT betrug dieses Verhältnis 14% und erreichte im März dieses Jahres über 30%. Dies bedeutet, dass ChatGPT zu einem Tool geworden ist, das Benutzer häufig zur Problemlösung nutzen.

Im Juli und August dieses Jahres gab es eine weitere Veränderung. Die wöchentlich aktiven Benutzer von ChatGPT erreichten 700 Millionen, und ein Großteil von ihnen begann, mit ChatGPT zu chatten und zu kommunizieren und es als Komponente zu betrachten. Dies ist ein wichtiges Zeichen für die Veränderung der Benutzerbindung.

Von der Unternehmensperspektive steigt auch die Verbreitungsrate von LLM in Unternehmen schnell. Nach der Veröffentlichung des Inferenzmodells wächst die Anzahl der Benutzer von OpenAI und Anthropic schnell. Dieses Jahr ist ein Wendepunkt für die Verbreitung von LLM-Anwendungen.

Die Verbreitung von LLM beeinflusst zunächst den Suchverkehr. Eine Studie von The Economist zeigt, dass der Webseiten-Suchverkehr aufgrund der AI um 15% gesunken ist, und der Suchverkehr im Gesundheitsbereich um über 40%.

Daher ist Zhang Hongjiang der Meinung, dass dies bedeutet, dass LLM in Zukunft viele sehr wichtige Anwendungen beeinflussen wird, wobei die Suche am ersten Platz steht.

Früher war das Scaling Law das Gesetz, auf dem die Entwicklung von LLM beruhte. Nach der Entstehung des Inferenzmodells hat die Branche eine andere Inferenzkurve gefunden. In Zukunft werden auch neue Dimensionen eingeführt, einschließlich des von Richard Sutton, dem Preisträger des Turing Awards 2024 und kanadischen Informatiker, erwähnten Lernens aus Erfahrung (Learning from Experience), was eigentlich Memory und Context ist.

Deshalb ist in diesem Sinne der Rechenleistungsbedarf von LLM kontinuierlich steigend.

In den letzten Jahren hat sich die Kosten für die Inferenz von Large Language Models kontinuierlich verringert, und diese Verringerung ist sehr erstaunlich. Zhang Hongjiang nannte dieses Gesetz LLMflation. Wenn die Modellleistung schnell steigt, sinken die Nutzungskosten schnell.

Der Trend in der Branche ist, dass einerseits die Entstehung von DeepSeek die Kosten schnell senken kann, andererseits die Verbesserung der Leistung von Chips und LLM selbst auch beweist, dass die Kostenreduktion im Laufe der Entwicklung von LLM weiterhin stattfinden wird.

02.

LLM treibt die gesamte Branche voran

Es ist notwendig, die AI-Infrastrukturbeschaffung zu beschleunigen

Heute hat das LLM-Ökosystem die gesamte Branche vorangetrieben.

Anfangs boten Cloud-Anbieter das Modell nur als Dienstleistung an. Anschließend begann das Modell, die gesamte Cloud-Plattform zu definieren und eine neue Plattform aufzubauen, ähnlich wie damals die PC-, iOS- und Cloud-Plattformen. In diesem Ökosystem wird sicherlich eine vollständige Branche entstehen.

Heute werden die Chip- und Cloud-Computing-Branche von LLM angetrieben und tragen allmählich zur Entwicklung der gesamten Elektrizitätsbranche und sogar der Wirtschaft bei. Dies ist auch der größte Treiber der US-Wirtschaft in den letzten zwei Jahren.

Elon Musk hat für xAI das weltweit größte AI-Datenzentrum gebaut und 200.000 Karten in einem einzigen Cluster installiert. Die Wichtigkeit davon für das Datenzentrum liegt darin, nicht nur die Gesamtrechenleistung auf ein bestimmtes Niveau zu bringen, sondern auch die Fähigkeit zu haben, ein großes Rechenleistungssystem in einer einzigen IDC aufzubauen. OpenAI hat ähnliches getan. Da Microsoft OpenAI nicht rechtzeitig genügend Rechenleistung zur Verfügung stellen konnte, startete es das Projekt "Stargate".

Ein Vergleich der Rechenleistungszuwächse in China und den USA in den letzten fünf Jahren zeigt, dass die USA sehr schnell ihre gesamten Rechenleistung-IDC anbauen, was uns auch darauf hinweist, schnell bei der Chip- und IDC-Konstruktion voranzuschreiten.

Zhang Hongjiang bezeichnet das Ökosystem, in dem das Modell die Entwicklung der unteren Chips, der gesamten Cloud-Computing-Branche, der Elektrizitäts- und Energiebranche antreibt, als Rechenleistungssystem-Ökosystemkette (AI’s Industrial Scaling Up).

03.

Unternehmen müssen den Arbeitsablauf für Agenten neu gestalten

Eine Person + Agenten erzielt eine Effizienzsteigerung

Anfang dieses Jahres hat Sutton den Turing Award erhalten, was beweist, dass Reinforcement Learning selbst zu einer Kerntechnologie der AI geworden ist.

Und die Agententechnologie kann erst auftauchen, wenn das Inferenzmodell allmählich reif wird, und ihre Wachstumsgeschwindigkeit ist jetzt sehr hoch. In den letzten 12 Monaten hat die Denkzeit des Inferenzmodells schnell zugenommen. Alle sechs Monate verdoppelt sich die Denkzeit, was auch bedeutet, dass die Denkleistung verdoppelt wird.

Mit der Verbesserung der Leistung von Modellen und Agenten ändert sich die Beziehung zwischen Menschen und Maschinen, zwischen Menschen und AI. AI ist von einem reinen Tool zu einem Assistenten des Menschen und dann zu einem Partner geworden, und die Zeit, in der AI zum Assistenten des Menschen wird, wird sehr kurz sein, und es wird schnell zum Partner werden. Ein Partner kann eigene Gedanken, Initiative, Planung und Handlungen haben.

Wenn Agenten die Fähigkeiten zur Berechnung, zum Denken, zur Planung und zur Handlung haben, werden sie die Unternehmensprozesse ersetzen. Derzeit ersetzen Agenten die Prozesse, die Unternehmen in der Vergangenheit für Menschen entworfen haben. In Zukunft müssen Unternehmen den gesamten Prozess für Agenten neu gestalten oder den Arbeitsablauf von Agenten neu definieren. Dies ist der Treiber für die Veränderung der Beziehung zwischen Menschen und Maschinen.

Sobald es in der Gesellschaft mehr und mehr Agenten gibt, wird es eine Agentengruppe bilden. Agenten steuern den gesamten Arbeitsablauf, tauschen Informationen aus, teilen Entscheidungen und schließen Geschäfte ab, und der Mensch wird zum Anbieter von Ressourcen und Daten. Dies entspricht dem Zustand der Agentenwirtschaft (Agent Economy). In der Agentenwirtschaft ist jeder Agent ein Punkt im riesigen sozialen Nervensystem, ähnlich wie die Neuronen heute.

Die Auswirkungen der Agentenwirtschaft auf die Gesellschaft liegen darin, dass das wichtigste Vermögen von Organisationen derzeit das Personal ist, in Zukunft aber Rechenleistung, Modelle und Daten werden. Heute nehmen Unternehmen mehr Personal ein, wenn sie ihr Geschäft erweitern möchten. In Zukunft wird es darum gehen, die Rechenleistung zu erweitern, die Modelle stärker zu machen und die Daten reichhaltiger zu gestalten. Wenn eine Person und eine Gruppe von Agenten ein Unternehmen bilden, wird es eine beispiellose Effizienzsteigerung geben.

Dies wird auch soziale Veränderungen bringen. Beispielsweise hat AI bereits heute einen Einfluss auf die Beschäftigung von jungen Menschen.

Im Juli dieses Jahres hat Zuckerberg einen hohen Preis für die Einstellung von AI-Ingenieuren gezahlt. Dies könnte nicht nur daran liegen, dass Meta in der AI-Branche hinterherhinkt. Zhang Hongjiang ist der Meinung, dass Zuckerberg eher die Zukunft gesehen hat. Die Kombination von Superindividuum + Agenten könnte die Zukunft domin