Jensen Huang's neueste Rede: In den nächsten 10 Jahren wird sich Ihre Arbeitsweise grundlegend ändern.
Notizen-Helfer sagt:
Als man ihn vor einem Jahr nach seiner Prophezeiung fragte, dass die Inferenz-Rechenleistung um eine Milliarde Mal steigen würde, gestand NVIDIA-CEO Jensen Huang in einem kürzlichen Interview ehrlich: „Ich habe es tatsächlich unterschätzt.“
Hinter dieser Selbstkritik verbirgt sich, dass die KI-Revolution mit einer Geschwindigkeit hereinbricht, die weit über die optimistischsten Prognosen hinausgeht.
In diesem Interview erläuterte er erstmals systematisch die Überlagerungseffekte der drei Skalierungsgesetze, die die Entwicklung der KI antreiben, und legte die zugrunde liegende Logik des „doppelten exponentiellen Wachstums“ des Rechenleistungsbedarfs dar.
Von der Enthüllung der strategischen Bedeutung der Milliarden-Dollar-Kooperation mit OpenAI am Projekt „Stargate“ über die Behauptung, dass „das Zeitalter der allgemeinen Computation vorbei ist“, bis hin zur Diskussion um den globalen „Souveränitäts-KI-Wettlauf“ – Jensen Huang skizzierte ein neues Bild des gesellschaftlichen und wirtschaftlichen Lebens in den nächsten 10 Jahren.
Er meint, dass wir nicht einfach einer technologischen Aufwertung bezeugen, sondern einer echten industriellen Revolution gegenüberstehen. In Zukunft werden wir weltweit Milliarden von „KI-Kollegen“ haben.
Können wir die Trends verstehen und uns ihnen anpassen, um in diesen immer schneller fahrenden Zug zu steigen?
Ich glaube, dass das Lesen des heutigen Inhalts Ihnen viele Anregungen geben wird.
1. Was hat Jensen Huang hauptsächlich gesagt?
In diesem Interview am 25. September 2025 hat Jensen Huang im Grunde genommen nur drei Sätze gesagt: Die KI-Industrierevolution ist da, wir waren schon lange vorbereitet, und in Zukunft geht es um individuelles Können.
Vielleicht finden Sie das Wort „KI-Industrierevolution“ zu übertrieben, aber Jensen Huang hat es im Interview ganz klar gemacht: Wir warten nicht auf die Zukunft, sondern stehen bereits am Start einer neuen industriellen Revolution.
Die „Dampfmaschine“ dieser Revolution ist nicht ein kohlebefeuerter Eisenklotz, sondern eine KI-Fabrik, die autonom arbeiten kann.
Seine Kernaussage lässt sich auf „eine Logik, zwei Ansätze, ein großes Ganzes“ zusammenfassen. Lassen Sie uns es näher betrachten.
1. Eine Kernlogik: Der Fortschritt der KI beruht nicht auf „roher Kraft“, sondern auf einem „Dreifachmotor“
Bisher dachten wir immer, dass die KI nur durch „Mehr an Ressourcen“ – mehr Daten und mehr Rechenleistung – schlauer würde. Aber Jensen Huang sagt, dass diese Vorstellung längst veraltet ist. Heute wird die KI von drei „Motoren“ angetrieben, und der Rechenleistungsbedarf steigt wie auf einem Raketenstart, und zwar nicht auf einem gewöhnlichen Raketenstart, sondern auf einem „Zweistufenraketenstart“.
Erster Motor: Vorhersage-Training (Grundlagen schaffen)
Das ist wie wenn ein Kind von der Schule bis zur Universität studiert und alle Bücher in der Bibliothek durchgeht, um zu verstehen, „wie die Welt funktioniert“. Die KI „verschlingt“ die gesamte Information im Internet, lernt sprechen, erlernt Wissen und Logik. Dies ist die Phase, in der wir am besten mit dem Prinzip „Mehr an Ressourcen führt zu Erfolg“ vertraut sind.
Zweiter Motor: Nach-Training (Fertigkeiten trainieren)
Dies ist ein neues Konzept! Die KI ist nicht fertig, wenn sie „abgeschlossen“ hat. Sie muss noch an einem „Praktikums-Training“ teilnehmen.
Das Vorhersage-Training ist wie das Lernen von „Gas geben, Lenken, Rückspiegel beachten“ beim Lernen des Autofahrens. Dies sind die grundlegenden Regeln des Autofahrens. Aber nachdem man den Führerschein hat, muss man an Kreuzungen in der Berufsverkehrszeit wiederholt üben, „wie man bei Staus einfährt“, an regnerischen Tagen üben, „wie man bremst, ohne zu rutschen“, und sogar in engen Gassen üben, „wie man auf einen Schlag in die Parklücke einfährt“.
Diese gezielten Übungen sind das „Nach-Training“. Erst wenn man einen bedingten Reflex entwickelt hat, kann man als erfahrener Fahrer gelten, der mit komplexen Straßenverhältnissen umgehen kann.
Das Nach-Training der KI funktioniert ähnlich. Nachdem sie im Vorhersage-Training gelernt hat, zu sprechen, muss sie im Nach-Training gezielt auf Aufgaben wie „Code schreiben“ oder „Designen“ trainieren, bis sie diese Aufgaben präzise ausführen kann. Dieser Schritt verbraucht eine enorme Menge an Rechenleistung, da man Tausende von Methoden ausprobieren muss, um die optimale Lösung zu finden.
Dritter Motor: Inferenz (Denken)
Ehemals war die KI wie eine „Google-Suche“. Man stellte eine Frage, und sie holte die Antwort direkt aus ihrem Gedächtnis. Heute ist die KI wie eine „Expertenkonferenz“. Wenn man eine Frage stellt, „sucht“ sie zuerst nach Informationen, „prüft“ die Daten, „überlegt“ die Logik, lernt sogar neue Dinge und gibt schließlich eine vertrauenswürdige Antwort. Und je länger sie denkt, desto höher ist die Qualität der Antwort.
Die zukünftige KI wird nicht alleine arbeiten, sondern es wird Teams von Modellen geben, die zusammenarbeiten, eine „intelligente Truppe“.
Diese drei Motoren laufen nicht nacheinander, sondern gleichzeitig. Einerseits werden immer mehr Menschen die KI nutzen, andererseits verbraucht jeder Nutzer bei jeder Nutzung immer mehr Rechenleistung. Wenn man diese beiden Faktoren multipliziert, steigt der Rechenleistungsbedarf exponentiell.
Dies erklärt auch, warum OpenAI Milliarden von Dollar in die Errichtung der Rechenleistungseinrichtung „Stargate“ investiert hat, denn es reicht einfach nicht aus!
2. Zwei strategische Stützpfeiler: NVIDIA verkauft nicht nur Chips, sondern „baut Rennbahnen“
Angesichts dieses rasanten Anstiegs des Rechenleistungsbedarfs hat NVIDIA nicht nur daran gedacht, „schnellere Chips zu bauen“, sondern hat zwei „dimensionale Überlegungen“ angewandt.
Stützpfeiler 1: Vom „Verkauf von Rennwagen“ zum „Aufbau eines gesamten Rennsport-Ökosystems“
Jensen Huang sagt, dass NVIDIA längst keine Chip-Firma mehr ist, sondern eine „Generalunternehmerin für KI-Infrastruktur“ geworden ist.
Die Technologien wie Blackwell und Rubin, die sie jedes Jahr aktualisieren, sind nicht nur eine Verbesserung der Chips, sondern es wird das gesamte Ökosystem aus Modellen, Algorithmen, Software, CPU, GPU, Netzwerken und Rechenzentren neu gestaltet und so optimiert, dass alle Komponenten perfekt zusammenarbeiten. Er nennt dies „extreme kooperative Gestaltung“.
Etwas schwierig zu verstehen, richtig? Lassen Sie uns ein Beispiel nehmen.
Ehemals baute NVIDIA schnellere Rennwagen (GPU). Heute gestalten sie auch die Rennstrecke, die Verkehrsregeln, die Tankstellen und sogar das gesamte Ökosystem des Rennparks.
So hat die Leistung von Hopper bis Blackwell (Anmerkung von Notesman: Zwei wichtige technische Architekturen in NVIDIA's GPU-Produkten) innerhalb eines Jahres um das 30-fache zugenommen!
Stützpfeiler 2: Was stärker als die Konkurrenz ist, ist die „langfristige Kosteneffizienz“
Jensen Huang hat es entschieden gesagt: „Selbst wenn die Konkurrenz ihre Chips kostenlos geben würde, würden die Kunden uns dennoch wählen.“ Dies ist keine Übertreibung. Der Kern liegt in der „Gesamtbesitzkosten“ (Anmerkung von Notesman: Die Gesamtheit aller Kosten, die im gesamten Lebenszyklus eines Produkts, einer Dienstleistung oder eines Vermögenswerts anfallen. Dies umfasst nicht nur den Anschaffungspreis, sondern auch alle anschließenden Kosten für die Nutzung, Wartung, Betrieb und Endentsorgung).
In der KI-Zeit fehlt es in Rechenzentren am meisten nicht an Geld, sondern an Strom und Platz. Die Lösung von NVIDIA mag zwar etwas teurer sein, aber die Leistung pro Watt Strom ist besonders hoch.
Bei demselben Stromkostenbetrag kann die Lösung von NVIDIA mehrere Male oder sogar zig Mal mehr KI-Ergebnisse generieren, und natürlich kann man damit auch mehr Geld verdienen.
Lassen Sie uns einfach mal rechnen: Wenn Ihr Stromkostenbudget festgelegt ist und Sie mit kostenlosen Chips 1 Million US-Dollar verdienen können, aber mit NVIDIA's kostenpflichtigen Chips 10 Millionen US-Dollar, welche Option würden Sie wählen?
Die Antwort ist klar. Kostenlose Chips scheinen kostengünstig, aber tatsächlich verpassen Sie 9 Millionen US-Dollar an potenziellen Einnahmen. Die Opportunitätskosten sind zu hoch. Deshalb bevorzugen die Kunden lieber, etwas mehr zu bezahlen, um eine effizientere Lösung zu erhalten.
3. Ein globales Blickfeld: Der KI-Markt wird explodieren, und alle Länder wollen „selbstbestimmt sein“
Basierend auf der obigen Logik hat Jensen Huang ein riesiges „Kuchen“ gezeichnet und einen neuen Trend benannt.
Marktgröße: Zuerst die „alten“ ersetzen, dann die „neuen“ schaffen
Jensen Huang sagt: „Das Zeitalter der allgemeinen Computation ist vorbei.“ Alle traditionellen Rechengeräte weltweit im Wert von mehreren Billionen US-Dollar müssen von CPU auf KI-gesteuerte Geräte umgestellt werden.
Selbst wenn man die „Empfehlungs-Engines“ (z. B. die Kurzvideos, die Sie sehen, und die Anzeigen, die Sie erhalten) von Unternehmen wie Google, Meta und ByteDance von CPU auf GPU umstellt, handelt es sich um einen Markt von Hunderten von Milliarden US-Dollar.
Darüber hinaus wird die KI das globale Bruttoinlandsprodukt (BIP) von 50 Billionen US-Dollar zusätzlich anheben. Wenn ein Unternehmen beispielsweise 10.000 US-Dollar für ein KI-Tool ausgibt, um die Effizienz eines Mitarbeiters mit einem Jahresgehalt von 100.000 US-Dollar zu verdoppeln, ist die Rendite dieser Investition enorm.
Souveränitäts-KI: Jedes Land will ein eigenes „KI-Basis“ aufbauen
Jensen Huang sieht es sehr klar: Die KI ist jetzt der „Schlüssel“ für die nationale Wirtschaft und Sicherheit. Jedes Land möchte eine „Souveränitäts-KI“ aufbauen, d. h. es will seine eigene KI-Infrastruktur aufbauen und die eigene Kultur, Geschichte und Datenschutzregeln in die KI einbauen.
Das ist wie wenn jedes Land seine eigene Stromversorgung, Telekommunikationsnetz und Internet braucht. Jetzt ist auch die KI-Infrastruktur zu einem „Notwendigkeit“ geworden. Dies ist für NVIDIA ein neuer Billionen-Markt, der von den Regierungen der Länder vorangetrieben wird.
Einstellung gegenüber China: Unterschätzen Sie China nicht, Zusammenarbeit ist rentabel
In diesem Interview wurde auch der technologische Wettlauf zwischen China und den USA diskutiert. Jensen Huang hat es sehr realistisch gesagt: NVIDIA sollte in China fair konkurrieren können. Dies ist sowohl für China als auch für die USA gut. Er hat auch gewarnt: Unterschätzen Sie die Innovationsfähigkeit chinesischer Unternehmen nicht. China hat die besten Unternehmer und Ingenieure der Welt.
Wenn die USA „Entkopplung“ betreiben und den Markt an chinesische heimische Unternehmen abgeben, ist das wie wenn man sich vor dem Kampf schon die Waffen wegwirft. Es lohnt sich nicht.
Sie sehen, die Logik von Jensen Huang ist eigentlich sehr einfach: Drei „Motoren“ sorgen dafür, dass die Rechenleistung nicht ausreicht; NVIDIA nutzt die Chance durch „ganzheitliche Umgestaltung“ und „kosteneffiziente Lösungen“; und jetzt erweitern die Länder durch die „Souveränitäts-KI“ den Markt.
In diesem Interview spricht er nicht über „wie gut unsere Chips sind“, sondern über „wie man die Zukunft spielen sollte“.
2. Fünf Trends für die nächsten 10 Jahre, die wir uns merken sollten
Okay, Jensen Huang hat uns geholfen, die „neue Spielweise der Welt“ zu verstehen. Jetzt folgt sein direktes „Routenplan für die nächsten zehn Jahre“. Dies sind keine phantastischen Science-Fiction-Vorstellungen, sondern reale Trends, die man bereits jetzt erkennen kann.
1. Rechenleistung wird zur „neuen Elektrizität“. Je mehr Stromkosten man tragen kann, desto mehr Wettbewerbsfähigkeit hat man
Ehemals wurde die Stärke eines Landes daran gemessen, wie viel Kohle es abbaute und wie viel Stahl es produzierte. Später im digitalen Zeitalter wurde es daran gemessen, wie weit das Netzwerk reichte.
In der KI-Zeit hat sich das Kriterium geändert: Jetzt geht es darum, wie viel „verfügbare Rechenleistung“ man hat, insbesondere intelligente Rechenleistung, die KI betreiben kann.
Jensen Huang hat einen sehr wichtigen Satz gesagt: „Der Umsatz von NVIDIA hängt fast direkt mit dem Stromverbrauch zusammen.“ Dieser Satz ist etwas schwierig zu verstehen und muss genau überlegt werden.
Warum ist es der „Stromverbrauch“? Weil in KI-Rechenzentren die teuersten Kosten nicht für die Anschaffung von Geräten, sondern für die Stromrechnung anfallen.
Sie können sich das Rechenzentrum als eine