StartseiteArtikel

Jensen Huang setzt den Ton für das neue Jahr: Die echte Aufwertung von KI beruht auf der Industrialisierung.

AI深度研究员2026-01-06 09:46
NVIDIA hat am CES ein Blueprint für die Industrialisierung von KI vorgestellt. Die Rubin-Chips, die Open-Source-Toolchain und Physical AI werden die Branche neu gestalten.

Zu Beginn des Jahres 2026 war das wichtigste Signal aus der KI-Branche nicht von einer Modell-Pressemitteilung, sondern von einer Branchenerklärung des CEOs eines Chipherstellers ausgegangen.

Am 5. Januar, live auf der CES in Las Vegas, begann der CEO von Nvidia, Jensen Huang, seine Rede mit den Worten:

Jede Ebene der Rechenindustrie muss neu geschrieben werden.

Jensen Huang hat nicht die Modell-Upgrades in den Mittelpunkt gestellt, sondern betont: Der echte Sprung in der KI beruht nicht auf Einzelentscheidungen, sondern auf einer ganzheitlichen industriellen Fähigkeit.

Was versteht man unter industrieller Fähigkeit?

Es geht nicht darum, eine bessere Demo zu präsentieren, sondern darum, dass KI repliziert, eingesetzt, akzeptiert und schließlich skaliert werden kann.

Bei dieser Pressemitteilung hat Nvidia genau dieses vollständige industrielle System gezeigt:

Hardware-Ebene: Die Rubin-Plattform ist in voller Produktion. Die Trainingsgeschwindigkeit ist um das Vierfache gesteigert, die Kosten sind um das Zehnfache gesenkt.

Anwendungs-Ebene: Der Standardpfad für Physical AI, von der Cosmos-Simulation bis zur Alpamayo-Fahrerassistenz, wird im ersten Quartal 2026 auf der Straße getestet.

Ökosystem-Ebene: Eine ganzheitliche Open-Source-Toolchain, von Modellen über Daten bis zu Tools, die der gesamten Branche zur Verfügung gestellt wird.

Jensen Huang sagte, dass der "ChatGPT-Moment" für die Robotik bald erreicht wird.

Dies ist nicht nur eine Metapher, sondern ein neuer Ausgangspunkt für die gesamte KI-Industrialisierung.

Abschnitt 1 | Anwendungsarchitektur: Agenten ersetzen Code

In Jensens Rede gab es einen Satz, der aufmerksam gemacht hat:

Du schreibst keine Software mehr, sondern du trainierst sie.

Dies bedeutet: KI-Anwendungen sind nicht nur Modelle, die an bestehende Programme angehängt werden, sondern es geht darum, einen intelligenten Agenten zu lehren, wie er seine Aufgaben erledigt.

Frühere Anwendungen waren vorkonfigurierte Abläufe, die vorab kompiliert und auf Geräten installiert wurden.

Heutige KI-Anwendungen sind hingegen in Echtzeit generiert, verstanden und antworten in Echtzeit. Selbst jedes Einzelbild und jedes Wort werden direkt vor Ort erzeugt.

Hinter diesem Wandel liegen drei grundlegende Veränderungen:

Von Programmieren zu Trainieren: Entwickler sagen Programmen nicht mehr, was sie tun sollen, sondern trainieren sie, es zu verstehen.

Von CPU zu GPU: Die Rechenleistung der KI-Ära kann nicht mehr von universellen Chips geleistet werden, sondern erfordert beschleunigte Rechenleistung für die Generierung, das Verständnis und die Inferenz.

Von Modellaufruf zu Agentenarchitektur: Ein einzelnes Modell reicht nicht mehr aus. Es muss ein ganzes System von intelligenten Agenten aufgebaut werden, die mehrere Modelle aufrufen, Probleme zerlegen und Tools nutzen können.

Die aktuelle Programmierweise bei Nvidia basiert auf genau dieser Architektur.

In seiner Rede erwähnte er Cursor, ein intelligentes Agentenmodell, das Ingenieuren beim Schreiben von Code hilft. Es nimmt Aufgaben entgegen, analysiert Absichten und nutzt Tools, um die Programmierung abzuschließen.

Jensen Huang nennt diese gesamte Struktur KI-Blauplan (Blueprint):

Es ist weder ein Modell noch ein Produkt, sondern eine ganzheitliche Methode. Darauf können Sie einen Kundenservice-Assistenten, einen persönlichen Assistenten oder sogar einen Haushaltsroboter bauen.

Wichtig ist auch, dass diese Architektur repliziert und angepasst werden kann.

Unternehmen können es spezifischen Fähigkeiten lehren;

Ingenieure können ihre eigenen Daten einfügen;

Jede Branche kann ihre eigene selbstständige KI aufbauen.

Der echte Sprung in KI-Anwendungen liegt also nicht in der Verwendung größerer Modelle, sondern in einer grundlegenden Veränderung der Bauweise: Von der Frage, wie man Modelle integriert, hin zu der Frage, wie man KI nutzt, um die Toolchain neu aufzubauen.

Dies bedeutet, dass die Basis von KI-Anwendungen sich verändert hat: Von einer Softwarearchitektur zu einer intelligenten Architektur.

Abschnitt 2 | Rechenleistungsinfrastruktur: Rubin senkt die Trainingskosten um das Zehnfache

Wenn man über KI spricht, denkt viele Menschen zunächst an die Stärke der Modelle. Doch in Jensens Augen entscheidet nicht das Modell allein, ob KI effektiv eingesetzt werden kann, sondern die Rechenleistung, die dahinter steht.

Diese "Kraftwerk" ist die von ihm vorgestellte Rubin KI-Plattform.

Dies ist keine gewöhnliche Hardware-Upgrade, sondern eine vollständige Überarbeitung der Rechenweise:

Sechs Chips werden koordiniert entwickelt: Vera CPU, Rubin GPU, ConnectX-9 Netzwerkkarte, BlueField-4 DPU, NVLink 6 Switch, Spectrum-X optischer Switch. Jeder Chip wird von Grund auf neu entworfen;

Die physische Struktur wird komplett überarbeitet: Null Kabel, zwei Rohre, 5 Minuten Montage (früher 2 Stunden);

Die Energieeffizienz wird revolutionär verbessert: Die Leistung wird verdoppelt, aber die Kühlung erfolgt mit 45°C warmem Wasser. In der Rechenzentrale muss kein Kühler installiert werden.

Warum unternimmt Nvidia diese großen Anstrengungen?

Weil die KI eine Krise der Rechenleistung erlebt, die Jensen Huang "Token-Inflation" nennt:

Die Modellgröße wächst jährlich um das Zehnfache (von einer Billion Parametern auf zehn Billionen Parametern)

Die Generierung von Inferenz-Tokens wächst jährlich um das Fünffache (Inferenzmodelle wie o1 müssen "denken", statt einfach eine Antwort zu geben)

Das Trainingsvolumen explodiert kontinuierlich (Vortraining + Nachtraining + Skalierung während des Tests)

Zur gleichen Zeit fällt der Token-Preis jährlich um das Zehnfache. Was bedeutet das?

Das bedeutet, dass KI-Unternehmen, um wettbewerbsfähig zu bleiben, müssen:

Mehr Tokens mit geringeren Kosten generieren

Das nächste Generation von Modellen schneller trainieren

Kompliziertere Inferenz mit größerer Rechenleistung unterstützen

Dies sind die zentralen Probleme, die Rubin lösen soll.

Die von Jensen Huang präsentierten Daten sind klar:

Trainingsgeschwindigkeit: Um ein Modell mit zehn Billionen Parametern zu trainieren, benötigt Rubin nur ein Viertel des Systems von Blackwell

Produktionsauslastung: Die Leistung pro Watt ist das Zehnfache von Blackwell

Token-Kosten: Die Generierungskosten sind ein Zehntel von Blackwell

Hinter diesen Zahlen verbirgt sich eine Veränderung der Geschäftslogik.

Ein Rechenzentrum mit 50 Milliarden US-Dollar und 1 Gigawatt Strom kann mit Rubin zehnmal mehr Einnahmen erzielen als mit Blackwell. Es geht nicht nur um eine Leistungssteigerung, sondern um eine Verdopplung der Einnahmen.

Rubin ist bereits in voller Produktion. Dies zeigt, dass Nvidia in einer Zeit, in der das Moore'sche Gesetz versagt, durch extreme kooperative Entwicklung die Leistungskurve wieder in die positive Richtung gelenkt hat.

Wichtig ist auch, dass diese Hardware nicht für ein einzelnes Unternehmen angepasst ist, sondern eine Standardbasis für die gesamte Branche darstellt:

Cloud-Provider können es nutzen, um Modelle zu trainieren;

Große Unternehmen können es für ihre KI-Produkte nutzen;

Startup-Unternehmen können es mieten, um sich an die KI-Infrastruktur anzuschließen.

Die Grundlage der KI-Industrialisierung ist nicht einfach das Hochladen eines Modells in die Cloud, sondern ein Rechenzentrum, das kontinuierlich funktioniert, kostengünstig ist und skalierbar ist.

Rubin ist der Kernmotor dieses Rechenzentrums.

Abschnitt 3 | Physical AI: Der industrielle Pfad für Roboter

Viele Menschen denken, dass Roboter nur Ausstellungsmuster auf Tech-Messen sind und noch weit von unserem Alltag entfernt sind. Doch Jensen Huang hat deutlich gemacht: Roboter werden die ersten Serienprodukte nach der KI-Industrialisierung.

Er hat sie direkt in die Kategorie Physical AI eingeordnet.

Was ist Physical AI?

Es ist nicht einfach die Fähigkeit, sich zu bewegen und zu sehen, sondern es ist KI, die versteht, wie die physische Welt funktioniert: Gravitation, Reibung, Trägheit, Kausalität, wie wir Menschen es von Kindheit an gelernt haben.

Aber diese Alltagswissen ist für KI äußerst schwierig zu erlernen. Man kann es nicht einfach sagen: "Ein Ball rollt" oder "Ein schwerer Wagen ist schwer anzuhalten". Es muss es aus Daten lernen.

Das Problem ist, dass die Daten aus der realen Welt selten und teuer sind. Soll die Fahrerassistenz-AI in realen Unfällen lernen? Offensichtlich nicht.

Deshalb hat Nvidia in den letzten acht Jahren ein komplettes Physical AI-Trainingssystem aufgebaut. Drei Computer arbeiten zusammen:

Trainingscomputer: Trainiert KI-Modelle mit GPU

Inferenzcomputer: Führt KI auf dem Roboter aus

Simulationscomputer: Übt in einer virtuellen Welt aus und setzt es dann in der Realität um

Der dritte Computer ist der entscheidende Durchbruch.

Nvidia hat dafür zwei Schlüsselwerkzeuge entwickelt:

Cosmos: Ein Weltmodell, das vorhersagen kann, welche physischen Folgen eine Aktion hat. Es versteht nicht Sprache, sondern physikalische Gesetze.

Omniverse: Eine physische Simulationsplattform, die Gravitation, Reibung, Materialien und Beleuchtung realistisch wiedergibt. KI kann in der virtuellen Welt Milliarden von Kilometern üben.

Die Stärke dieser Methodik wurde bei Alpamayo bestens bewiesen. Alpamayo ist die von Nvidia neu veröffentlichte Fahrerassistenz-AI und das weltweit erste end-to-end Fahrerassistenzsystem mit Inferenzfähigkeit.

Wo liegt der Durchbruch?

Es sagt nicht nur "Ich werde links abbiegen", sondern es erklärt:

Es gibt einen Fußgänger, der die Straße überquert, ich muss langsamer werden

Ein Auto wechselt in die linke Spur, ich bleibe in meiner Spur und passe meine Geschwindigkeit an

Warum ist diese Inferenzfähigkeit so wichtig?

Weil es unendlich viele Randfälle gibt. Man kann nicht alle Trainingsdaten aus allen Ländern, in allen Wetterbedingungen und in allen unvorhergesehenen Situationen sammeln. Aber wenn KI inferenzfähig ist, kann es unbekannte Situationen in bekannte Teil-Situationen zerlegen. Zum Beispiel: "Fußgänger + Verlangsamung", "Spurwechsel + Ausweichen", die es bereits trainiert hat.

Die Trainingsdaten von Alpamayo stammen aus:

Eine Vielzahl von menschlichen Fahrstunden

Milliarden von Kilometern an virtuellen Daten, die von Cosmos generiert wurden*

Feingeschnittene Randfälle, die manuell annotiert wurden

Außerdem hat es ein doppelter Sicherheitsdesign:

Alpamayo ist für komplexe Inferenzszenarien zuständig

Das klassische AV-Stack ist als Reserve geplant (wenn Alpamayo unsicher ist, wird es umgeschaltet)

Wichtig ist auch, dass im ersten Quartal 2026 dieses System in einem Mercedes-Benz CLA auf der Straße getestet werden wird und Alpamayo bereits Open Source ist.

Dies zeigt, dass Nvidia nicht nur ein Fahrerassistenzfahrzeug gebaut hat, sondern einen gesamten industriellen Pfad für Physical AI validiert hat:

Generieren von Trainingsdaten mit Cosmos → Lösung des Problems der Datenknappheit

Virtuales Training mit Omniverse → Senkung der Kosten für Fehlversuche

Umgang mit Randfällen durch Inferenzfähigkeit → Überwindung der Grenze der Datenabdeckung

Dieser Pfad ist nicht nur für Autos geeignet, sondern für alle Roboter.

Die von Jensen Huang präsentierten Groot-Roboter und Jetson-Roboter wurden in Omniverse trainiert. Sie werden in Lagerhäusern, Krankenhäusern, Hotels und Baustellen eingesetzt, um einige reale Aufgaben zu übernehmen.

Roboter sind nicht der letzte Schritt in der KI-Entwicklung, sondern die ersten Serienprodukte nach der KI-Industrialisierung.

Die Fähigkeit, sich an die Umgebung anzupassen, die Physik zu verstehen und zu inferieren, bedeutet, dass KI von der Bildschirmwelt in die reale Welt eintritt.

Cosmos generiert Daten, Omniverse simuliert und trainiert, Inferenzfähigkeit hilft, unbekannte Situationen zu bewältigen. Diese Methodik wird zum Standardprozess für Physical AI.

Abschnitt 4 | Open-Source-Strategie: Was plant Nvidia?

Die Vorstellung, dass KI nur für große Unternehmen zugänglich ist, weil es hohe Barrieren gibt, wird nun überwunden.

Jensen Huang hat seine Meinung klar gemacht:

Wir machen unsere Modelle, Daten und Toolchains Open Source, damit jedes Unternehmen seine eigene KI entwickeln kann.

Warum macht Nvidia das?

Dies ist ein Ökosystem-Krieg.

I. OpenAI's Closed-Source vs. Nvidias Open-Source

Schauen wir uns zunächst zwei verschiedene Wege an:

OpenAI's Strategie:

  • Modelle sind Closed Source, aber technologisch führend
  • Du rufst meine API auf und zahlst pro Token
  • Ich kontrolliere die Modelle, du kontrollierst die Anwendungen

Nvidias Strategie:

  • Modelle, Tools und Daten sind Open Source
  • Du trainierst selbst, aber nutzt meine Chips
  • Du kontrollierst die Modelle, ich kontrolliere die Infrastruktur

Siehst du den Unterschied?

OpenAI will der Microsoft der KI-Ära werden: Es verkauft Software und Services. Nvidia will der TSMC der KI-Ära werden: Es verkauft Chips und Rechenleistung.

Und Open Source ist das Kernwaffen von Nvidias Strategie.

II. Welche Vorteile hat Open Source für Nvidia?

1. Erweiterung des Marktvolumens

Wenn KI nur über die API großer Modelle genutzt werden kann, müssen nur wenige Unternehmen wie OpenAI, Anthropic und Google GPUs kaufen.

Aber wenn jede Branche und jedes Unternehmen seine eigenen Modelle trainieren will, müssen Tausende von Unternehmen GPUs kaufen.

Die Open-Source-Toolchain senkt die Barrieren und aktiviert den Langschwanzmarkt.

2. Etablierung von Standards