StartseiteArtikel

Die Ära der universellen Berechnung ist vorbei. Ein tiefgehender Interview mit Jensen Huang enthüllt erstmals die Gründe für die Investition in OpenAI.

划重点2025-09-28 15:32
Es gibt keine Blase in der KI-Branche. OpenAI wird das nächste Billionen-Dollar-Unternehmen sein.

Am 26. September diskutierte Jensen Huang von NVIDIA in einem neuesten Interview über Themen wie die Trends in der KI-Branche, die Zukunft der Berechnung und die Wettbewerbsvorteile von NVIDIA und enthüllte erstmals die Gründe hinter seiner Milliardeninvestition in OpenAI.

Er meint, dass das Versagen des Moore-Gesetzes dazu führt, dass die Kosten und der Energieverbrauch von Transistoren nicht mehr signifikant verbessert werden können und die herkömmliche Berechnung keine notwendige Leistungssteigerung mehr bieten kann. Vor diesem Hintergrund erlebt die Nachfrage nach KI eine doppelt exponentielle Wachstumsrate. Erstens hat die Anzahl der KI-Nutzer exponentiell zugenommen. Zweitens hat sich die Art der KI-Inferenz (Inference) grundlegend verändert. Sie hat sich von einer einfachen, einmaligen Antwort zu einem komplexen "Denk"-Prozess (thinking) entwickelt. Diese Aufwertung des Inferenzparadigmas führt dazu, dass die für jede KI-Nutzung erforderliche Rechenleistung exponentiell ansteigt. Es wird geschätzt, dass dies zu einer 10-Milliardenfachen Zunahme der Inferenznachfrage führen wird.

Die KI-Infrastruktur löst eine industrielle Revolution aus. Die allgemeine Zweckrechnung (general purpose computing) ist beendet. Die weltweiten Recheninfrastrukturen im Wert von Billionen von Dollar (einschließlich Suchmaschinen, Empfehlungsmaschinen, Datenverarbeitung usw.) werden von der Verwendung von CPUs auf die beschleunigte KI-Berechnung umgestellt. Die KI-Infrastruktur von NVIDIA wird Tokens generieren, um die menschliche Intelligenz zu stärken und letztendlich enorme wirtschaftliche Vorteile zu bringen. Der derzeitige Jahresmarkt von 400 Milliarden Dollar könnte in Zukunft um mindestens das Zehnfache wachsen.

Das strategische Schwergewicht von NVIDIA liegt nicht einfach in der Herstellung von Chips, sondern in der Rolle als Partner für KI-Infrastrukturen. Durch die "Extreme Co-Design"-Methode (Extreme Co-Design) wird eine starke Wettbewerbsbarriere errichtet. Da die Leistungssteigerung eines einzelnen Chips begrenzt ist, muss NVIDIA auf allen Ebenen des Stacks, einschließlich Algorithmen, Modellen, Systemen, Software, Netzwerken und Chips, gleichzeitig innovieren und optimieren. Genau diese Ganzstapel-Entwicklung ermöglicht es NVIDIA, in kurzer Zeit Leistungssprünge wie von Hopper zu Blackwell zu erzielen.

Jensen Huang betont, dass der Kernwert der Strategie die höchste Leistung pro Energieverbrauchseinheit ist. Für hyperskalige Kunden mit begrenzter Stromversorgung ist der enorme Opportunitätskostennachweis, der durch die Aufgabe des NVIDIA-Systems entsteht, nicht akzeptabel, selbst wenn die Chips der Konkurrenz kostenlos wären.

Im Bereich des Geschäftsengagements sieht NVIDIA OpenAI als das nächste hyperskalige Unternehmen im Billionen-Dollar-Bereich und arbeitet mit ihm an der Aufbau der KI-Infrastruktur zusammen, darunter die Unterstützung bei der ersten Eigenbau-KI-Fabrik von OpenAI.

Wichtige Punkte aus dem Interview mit Jensen Huang:

1. Die Nachfrage nach KI-Berechnung wächst exponentiell, und die Inferenz (Inference) ist der Schlüsselfaktor

Derzeit gibt es für das KI-Training drei Regeln: das Pre-Training (pre-training), das Post-Training (post-training) und die Inferenz (inference). Die herkömmliche Inferenz ist "einmalig" (one shot), aber die neue Generation der Inferenz hat sich zu einem "Denken" (thinking) entwickelt, d. h. es wird vor der Antwort recherchiert, die Realität überprüft und gelernt. Das "Denken" führt dazu, dass die für jede KI-Nutzung erforderliche Rechenleistung exponentiell ansteigt. Daher wird erwartet, dass die Inferenznachfrage um das 10-Milliardenfache zunehmen wird. Dieser erstaunliche Anstieg resultiert aus zwei exponentiellen Effekten: einerseits aus dem exponentiellen Wachstum der Anzahl der KI-Kunden und der Nutzungsrate, andererseits aus dem exponentiellen Anstieg der für jede Nutzung erforderlichen Rechenleistung.

2. OpenAI hat das Potenzial, das nächste hyperskalige Unternehmen im Billionen-Dollar-Bereich zu werden

Jensen Huang glaubt, dass OpenAI sehr wahrscheinlich das nächste hyperskalige Unternehmen im Billionen-Dollar-Bereich wird. Es wird sowohl Verbraucher- als auch Unternehmensdienstleistungen anbieten. Die Investition von NVIDIA in OpenAI wird als "eine der klügsten Investitionen, die man sich vorstellen kann" angesehen. NVIDIA hilft OpenAI derzeit bei der ersten Eigenbau-KI-Infrastruktur, was alle Ebenen von Chips, Software, Systemen bis hin zur KI-Fabrik umfasst.

3. Die KI-Infrastruktur ist die neue industrielle Revolution und birgt enormes Marktpotenzial

Der Aufbau der KI-Infrastruktur wird als eine industrielle Revolution angesehen. Der Großteil der strukturierten und unstrukturierten Datenverarbeitung läuft derzeit noch auf CPUs. Jensen Huang schätzt, dass sich diese Datenverarbeitung in Zukunft vollständig auf die KI umstellen wird. Dies ist ein riesiger Markt. Die weltweiten Recheninfrastrukturen im Wert von Billionen von Dollar, einschließlich herkömmlicher hyperskaliger Recheninfrastrukturen wie Suchmaschinen, Empfehlungsmaschinen und Einkaufssysteme, müssen von der Verwendung von CPUs auf die beschleunigte KI-Berechnung mit GPUs umgestellt werden. Die KI-Infrastruktur wird Tokens generieren, um die menschliche Intelligenz zu stärken und letztendlich enorme wirtschaftliche Vorteile zu bringen. Beispielsweise kann eine KI im Wert von 10.000 Dollar die Produktivität eines Mitarbeiters mit einem Gehalt von 100.000 Dollar um das Zwei- bis Dreifache erhöhen. Der aktuelle Jahresmarkt der KI-Infrastruktur beträgt etwa 400 Milliarden Dollar, aber das gesamte potenzielle Marktvolumen könnte in Zukunft um mindestens das Zehnfache wachsen.

4. Die Wall Street unterschätzt das Wachstumspotenzial von NVIDIA

Analysten an der Wall Street prognostizieren, dass das Wachstum von NVIDIA ab 2027 stagniere. Jensen Huang widerspricht diesen Analysten und meint, dass es weiterhin einen Mangel an Rechenressourcen auf dem Markt gibt. Er betont, dass die Wahrscheinlichkeit eines Überangebots äußerst gering ist. Erst wenn die gesamte allgemeine Zweckrechnung auf die beschleunigte Berechnung umgestellt ist, alle Empfehlungsmaschinen auf KI basieren und alle Inhaltsgenerierung von KI angetrieben wird, könnte es zu einem Überangebot kommen. NVIDIA reagiert auf die Marktbedürfnisse, und die zukünftige Nachfrage nach KI-Infrastrukturen wird sehr hoch sein.

5. NVIDIA baut durch die "Extreme Co-Design"-Methode (Co-Design) einen Kernwettbewerbsvorteil auf

Da das Moore-Gesetz versagt und die Kosten und der Stromverbrauch von Transistoren im Wesentlichen konstant bleiben, ist es derzeit nicht möglich, die Leistung auf herkömmliche Weise zu verbessern. Um diese Herausforderung zu bewältigen, setzt NVIDIA auf die Extreme Co-Design-Methode (Co-Design) und optimiert und innoviert gleichzeitig auf System-, Software-, Netzwerk- und Chip-Ebene.

Jensen Huang meint, dass die starken Systemplattformvorteile von NVIDIA eine Wettbewerbsbarriere bilden, die sogar höher ist als der potenzielle Kostenvorteil der ASIC-Chips der Konkurrenz. Da die Kundenbetriebe durch die Stromversorgung begrenzt sind, möchten sie aus jedem Watt Strom die höchstmögliche Rendite erzielen. Die tiefe und extreme Co-Design-Entwicklung von NVIDIA ermöglicht die beste Leistung pro Watt. Selbst wenn die Kunden die Chips der Konkurrenz kostenlos erhalten könnten, würden sie aufgrund der hohen Opportunitätskosten (möglicherweise einem 30-fachen Einbußen an Einnahmen) weiterhin für das NVIDIA-System entscheiden. Daher glaubt NVIDIA, dass es eher an der Entwicklung komplexer KI-Fabrikssysteme arbeitet als nur an der Herstellung von Chips.

Im Folgenden der Originaltext des Interviews:

1. Die Paradigmenrevolution und das exponentielle Wachstum der KI-Berechnung

Moderator: Jensen, ich freue mich, dass Sie zurück sind, und natürlich auch mein Partner Clark Tang.

Jensen Huang: Willkommen bei NVIDIA.

Moderator: Ihre Brille ist sehr schön. Sie sieht wirklich gut auf Ihnen aus. Jetzt werden alle wollen, dass Sie sie immer tragen. Sie werden sagen: "Wo sind die roten Brillen?" Es ist schon mehr als ein Jahr her, seit wir das letzte Mal ein Podcast gemacht haben. Jetzt stammen über 40 % Ihres Umsatzes aus der Inferenz (inference). Aber aufgrund der "Kette des Denkens" (chain of reasoning) steht die Inferenz vor einem Boom.

Jensen Huang: Ja, sie wird um das 10-Milliardenfache wachsen. Dies ist etwas, das die meisten Menschen noch nicht wirklich verstanden haben. Dies ist eine industrielle Revolution.

Moderator: Ehrlich gesagt, habe ich seitdem jeden Tag an diesem Podcast gearbeitet. In der Zeitskala der KI entspricht dies etwa 100 Jahren. Ich habe diese Podcast-Folge wiederholt angeschaut. In letzter Zeit haben wir viele Dinge diskutiert. Für mich war das vielleicht das Eindrucksvollste, als Sie auf den Tisch hauchten. Erinnern Sie sich noch? Damals war das Pre-Training (pre-training) etwas in die Doldrums geraten. Die Leute sagten: "Oh je, das Pre-Training ist am Ende." Das war vor etwa anderthalb Jahren. Sie haben auch gesagt, dass die Inferenz nicht um das 100- oder 1.000-fache wachsen würde, sondern um das 10-Milliardenfache. Das bringt uns zu diesem Moment hier.

Jensen Huang: Wir haben jetzt drei Skalierungsgesetze, richtig? Wir haben das Pre-Training-Skalierungsgesetz (Pre-training Scaling Law), das Post-Training-Skalierungsgesetz (Post-Training Scaling Law). Das Post-Training ist wie das Üben der KI. Sie übt eine Fähigkeit wiederholt, bis sie es richtig macht. Dazu muss sie Inferenz betreiben. So sind jetzt im Bereich des Reinforcement Learnings Training und Inferenz integriert. Das ist das sogenannte Post-Training (post-training). Das dritte Gesetz ist die Inferenz (inference). Früher wurde die Inferenz in einem Schritt durchgeführt. Aber wir sind dankbar für diese neue Art der Inferenz - das Denken. Das Denken findet vor der Antwort des Modells statt. So haben wir jetzt drei Skalierungsgesetze, anstatt nur eines. Je länger Sie denken, desto besser ist die Qualität Ihrer Antwort. Während Sie denken, führen Sie Recherchen durch, überprüfen Fakten und lernen etwas. Je mehr Sie denken und lernen, desto besser wird die Antwort. Generieren Sie nicht sofort eine Antwort. Also Denken, Post-Training, Pre-Training - wir haben jetzt drei Skalierungsgesetze, anstatt nur eines.

Moderator: Sie haben das schon letztes Jahr gesagt, aber wie sicher sind Sie dieses Jahr, dass die Inferenz um das 10-Milliardenfache wachsen wird und wie weit die Intelligenz steigen wird? Sind Sie sich sicherer als vor einem Jahr?

Jensen Huang: Ich bin dieses Jahr sicherer, denn schauen Sie sich die aktuellen Agentensysteme (agentic systems) an. Die KI ist nicht mehr nur ein Sprachmodell, sondern ein System aus Sprachmodellen, die alle parallel laufen. Einige nutzen Tools, andere führen Recherchen durch, und es gibt noch vieles andere. Und alles ist multimodal. Schauen Sie sich die von KI generierten Videos an. Das ist unglaublich.

2. OpenAI hat das Potenzial, das nächste hyperskalige Unternehmen im Billionen-Dollar-Bereich zu werden

Moderator: Das bringt uns tatsächlich zu dem bahnbrechenden Moment, über den diese Woche alle sprechen. Vor ein paar Tagen haben Sie die Milliarden-Deal mit OpenAI im Rahmen des Stargate-Projekts angekündigt. Sie werden der bevorzugte Partner sein und 100 Milliarden Dollar in das Unternehmen investieren. Über einen gewissen Zeitraum werden sie mindestens 10 Gigawatt an KI-Datenzentren bauen, und wenn sie für den Bau der Datenzentren NVIDIA-Produkte nutzen, könnte dies für NVIDIA einen Umsatz von bis zu 400 Milliarden Dollar bedeuten. Bitte helfen Sie uns, diesen Partnerschaftsvertrag zu verstehen. Was bedeutet dies für Sie und warum ist diese Investition für NVIDIA so sinnvoll?

Jensen Huang: Ich beantworte zuerst die letzte Frage. Ich denke, dass OpenAI sehr wahrscheinlich das nächste hyperskalige Unternehmen im Billionen-Dollar-Bereich wird. Hyperskalige Unternehmen wie Meta und Google verfügen über Dienstleistungen für Verbraucher und Unternehmen. OpenAI hat sehr gute Chancen, das nächste Unternehmen mit einem Marktwert von Billionen von Dollar zu werden. Wenn dies der Fall ist, ist dies eine Investitionschance, bevor diese Prognose Wirklichkeit wird. Dies sind möglicherweise eine der klügsten Investitionen, die man sich vorstellen kann. Man sollte sein Geld in etwas investieren, das man versteht. Es stellt sich heraus, dass wir in diesem Bereich vertraut sind. Daher freuen wir uns sehr über die Investitionschance. Wir müssen nicht unbedingt investieren, wir haben keine Verpflichtung dazu, aber sie bieten uns die Möglichkeit, zu investieren.

Jensen Huang: Lassen Sie mich jetzt von vorne anfangen. Wir arbeiten mit OpenAI an mehreren Projekten zusammen. Zunächst unterstützen wir die Erstellung von Microsoft Azure und werden dies auch weiterhin tun. Diese Zusammenarbeit läuft sehr gut, und es gibt noch mehrere Jahre an Bauarbeiten. Nur hier sind Milliarden von Dollar an Arbeit zu erledigen. Zweitens ist das die Erstellung der OCI (Oracle Cloud Infrastructure). Ich denke, es werden noch etwa fünf, sechs oder sieben Gigawatt gebaut werden. Wir werden mit OCI, OpenAI und SoftBank zusammenarbeiten. Diese Projekte sind vertraglich festgelegt, und wir arbeiten daran. Es gibt viel zu tun. Drittens ist das CoreWeave. Die Frage ist also: Was ist diese neue Partnerschaft? Diese neue Partnerschaft besteht darin, OpenAI zu helfen, ihre eigene KI-Infrastruktur aufzubauen. Wir helfen ihnen also direkt auf Chip-Ebene, auf Software-Ebene, auf System-Ebene und auf Ebene der KI-Fabrik, ein voll funktionsfähiges hyperskaliges Unternehmen zu werden. Dies wird noch eine Weile dauern. Sie wissen, dass sie zwei exponentielle Wachstumsprozesse durchmachen. Der erste exponentielle Wachstumsprozess betrifft die Anzahl der Kunden, die exponentiell wächst. Dies liegt daran, dass die KI immer stärker wird und die Anwendungsfälle immer besser werden. Fast jede Anwendung ist jetzt mit OpenAI verbunden. Daher erleben sie ein exponentielles Wachstum der Nutzungsrate. Der zweite Exponent betrifft die Rechenleistung pro Nutzung. Es wird jetzt nicht mehr nur eine einfache Inferenz durchgeführt, sondern es wird vor der Antwort nachgedacht. Diese beiden exponentiellen Wachstum