StartseiteArtikel

Gibt man Nokia 1 Milliarde Euro, will Jensen Huang 200 Milliarden Euro verdienen.

直面AI2025-10-29 11:44
Jensen Huang hat auf der GTC 2025 eine Reihe von sensationellen Ankündigungen gemacht.

Bei der GTC 2025 hat Jensen Huang eine sensationelle Neuigkeit preisgegeben: Nvidia wird Nokia mit 1 Milliarde US - Dollar investieren. Ja, es ist jene Nokia, das Unternehmen, das vor 20 Jahren mit seinen Symbian - Mobiltelefonen überall in China beliebt war.

Jensen Huang sagte in seiner Rede, dass das Telekommunikationsnetz sich in einem grundlegenden Wandel von der traditionellen Architektur hin zu einem AI - nativen System befindet, und die Investition von Nvidia werde diesen Prozess beschleunigen. Deshalb wird Nvidia gemeinsam mit Nokia auf Investitionsebene eine AI - Plattform für das 6G - Netzwerk schaffen und AI in das traditionelle RAN - Netzwerk integrieren.

Konkret wird Nvidia etwa 166 Millionen neue Aktien von Nokia zu einem Preis von 6,01 US - Dollar pro Aktie erwerben. Dies wird es Nvidia ermöglichen, etwa 2,9 % der Anteile von Nokia zu halten.

Genau in dem Moment, als die Partnerschaft angekündigt wurde, stieg der Nokia - Aktienkurs um 21 %, was der größte Anstieg seit 2013 war.

01

Was ist AI - RAN?

RAN steht für Radio Access Network (drahtloses Zugangsnetz), und AI - RAN ist eine neue Netzwerkarchitektur, die die AI - Rechenleistung direkt in die drahtlosen Basisstationen integriert. Das traditionelle RAN - System ist hauptsächlich für die Datenübertragung zwischen Basisstationen und Mobilgeräten zuständig, während AI - RAN zusätzlich Edge - Computing und intelligente Verarbeitungsfunktionen hinzufügt.

So können Basisstationen AI - Algorithmen nutzen, um die Spektrumnutzung und die Energieeffizienz zu optimieren und die Gesamtleistung des Netzwerks zu verbessern. Gleichzeitig können ungenutzte RAN - Ressourcen für die Edge - AI - Dienste genutzt werden, um den Netzbetreibern neue Einnahmequellen zu eröffnen.

Netzbetreiber können AI - Anwendungen direkt an der Basisstation ausführen, ohne dass alle Daten in das zentrale Rechenzentrum zurückgesendet werden müssen. Dies reduziert die Belastung des Netzwerks erheblich.

Jensen Huang gab ein Beispiel: Fast 50 % der ChatGPT - Nutzer greifen über Mobilgeräte zu. Darüber hinaus wurden ChatGPT monatlich über 40 Millionen Mal auf Mobilgeräten heruntergeladen. In einer Zeit des explosionsartigen Wachstums von AI - Anwendungen ist das traditionelle RAN - System nicht in der Lage, auf generative AI und mobile Netzwerke, die von Agenten dominiert werden, zu reagieren.

AI - RAN bietet über die verteilte AI - Inferenzleistung an den Netzrändern schnellere Reaktionszeiten für zukünftige AI - Anwendungen wie Agenten und Chatbots. Gleichzeitig bereitet AI - RAN auch auf die integrierten Sensor - und Kommunikationsanwendungen der 6G - Ära vor.

Jensen Huang zitierte die Prognose der Analystenfirma Omdia: Die Firma geht davon aus, dass der RAN - Markt bis 2030 insgesamt mehr als 200 Milliarden US - Dollar erreichen wird, wobei der AI - RAN - Anteil der am schnellsten wachsende Segment sein wird.

Justin Hotard, Präsident und CEO von Nokia, sagte in einer gemeinsamen Erklärung, dass diese Partnerschaft es ermöglichen würde, AI - Rechenzentren in die Tasche jedes Menschen zu packen und einen grundlegenden Neustart von 5G zu 6G zu ermöglichen.

Er erwähnte besonders, dass Nokia mit drei Unternehmen unterschiedlicher Art zusammenarbeitet: Nvidia, Dell und T - Mobile. T - Mobile wird als einer der ersten Partner ab 2026 Feldtests mit der AI - RAN - Technologie durchführen, um die Verbesserung von Leistung und Effizienz zu validieren. Justin sagte, dass diese Tests wertvolle Daten für die 6G - Innovation liefern und den Netzbetreibern helfen würden, intelligente Netzwerke zu bauen, die den Anforderungen von AI gerecht werden.

Basierend auf AI - RAN hat Nvidia ein neues Produkt namens Aerial RAN Computer Pro (ARC - Pro) vorgestellt. Dies ist eine beschleunigte Rechenplattform für das 6G - Netzwerk. Ihre Kernhardware umfasst zwei Arten von Nvidia - GPUs: Grace CPU und Blackwell GPU.

Diese Plattform wird über NVIDIA CUDA betrieben, und die RAN - Software kann direkt in den CUDA - Technologiestack integriert werden. Somit kann sie nicht nur die Funktionen des traditionellen drahtlosen Zugangsnetzes verarbeiten, sondern auch die gängigsten AI - Anwendungen ausführen. Dies ist auch die Kernmethode von Nvidia, um die AI - Komponenten in AI - RAN umzusetzen.

Angesichts der langen Geschichte von CUDA ist die größte Stärke dieser Plattform ihre Programmierbarkeit. Darüber hinaus hat Jensen Huang angekündigt, dass das Aerial - Softwareframework open - source gemacht wird und ab Dezember 2025 unter der Apache 2.0 - Lizenz auf GitHub veröffentlicht werden soll.

Der Hauptunterschied zwischen ARC - Pro und seinem Vorgänger ARC liegt in der Einbausituation und den Anwendungsfällen. Der Vorgänger ARC wurde hauptsächlich für die zentrale Cloud - RAN - Implementierung verwendet, während ARC - Pro direkt an der Basisstation installiert werden kann, was die Edge - Computing - Leistung tatsächlich umsetzen lässt.

Ronnie Vasishta, Leiter der Telekommunikationsabteilung von Nvidia, sagte, dass in der Vergangenheit RAN und AI zwei verschiedene Hardware - Lösungen benötigten, aber ARC - Pro die Rechenressourcen dynamisch je nach Netzwerkbedarf zuweisen kann. Es kann entweder die Funktionen des drahtlosen Zugangs priorisieren oder in Leerlaufphasen AI - Inferenzaufgaben ausführen.

ARC - Pro integriert auch die Nvidia AI Aerial - Plattform, ein vollständiger Softwarestack, der CUDA - beschleunigte RAN - Software, Aerial Omniverse - Digitaltwin - Tools und das neue Aerial Framework umfasst. Das Aerial Framework kann Python - Code in leistungsstarken CUDA - Code umwandeln und auf der ARC - Pro - Plattform ausführen. Darüber hinaus unterstützt die Plattform auch von AI angetriebene neuronale Netzmodelle für die hochwertige Kanalabschätzung.

Jensen Huang sagte, dass die Telekommunikation das digitale Nervensystem der Wirtschaft und Sicherheit sei. Die Partnerschaft mit Nokia und dem Telekommunikationsökosystem werde diese Revolution entfachen und den Netzbetreibern helfen, intelligente und anpassungsfähige Netzwerke zu bauen und die nächste Generation der globalen Vernetzung zu definieren.

02

Im Jahr 2025 hat Nvidia tatsächlich eine Menge Geld investiert.

Am 22. September 2025 hat Nvidia eine Partnerschaft mit OpenAI geschlossen. Nvidia plant, schrittweise 100 Milliarden US - Dollar in OpenAI zu investieren, was die Infrastrukturentwicklung von OpenAI beschleunigen wird.

Jensen Huang sagte, dass OpenAI schon vor langer Zeit nach einer Investition von Nvidia gefragt habe, aber damals habe das Unternehmen nur begrenzte Finanzmittel gehabt. Er sagte humorvoll, dass er damals zu arm gewesen sei und eigentlich alles Geld an sie geben sollten.

Jensen Huang ist der Meinung, dass das Wachstum der AI - Inferenz nicht um das 100 - oder 1000 - fache, sondern um das 1 Milliarden - fache steigen wird. Diese Partnerschaft beschränkt sich nicht nur auf die Hardware, sondern auch auf die Softwareoptimierung, um sicherzustellen, dass OpenAI das System von Nvidia effizient nutzen kann.

Möglicherweise hat er diese Entscheidung getroffen, weil er nach der Zusammenarbeit zwischen OpenAI und AMD befürchtete, dass OpenAI CUDA aufgeben könnte. Wenn das weltweit größte AI - Basismodell CUDA nicht mehr nutzt, ist es verständlich, dass andere Anbieter von großen Modellen OpenAI folgen könnten.

Jensen Huang sagte in der BG2 - Podcast - Show, dass OpenAI wahrscheinlich das nächste Unternehmen mit einem Marktwert von einer Billion US - Dollar werden wird und dass seine Wachstumsgeschwindigkeit einen Branchenrekord setzen wird. Er widersprach der These von einem AI - Blasenphänomen und sagte, dass die jährlichen Kapitalausgaben für die AI - Infrastruktur weltweit 5 Billionen US - Dollar erreichen werden.

Genau wegen dieser Investition hat OpenAI am 29. Oktober 2025 die Kapitalstrukturumwandlung des Unternehmens abgeschlossen. Das Unternehmen wurde in zwei Teile aufgeteilt: eine gemeinnützige Stiftung und eine gewinnorientierte Gesellschaft.

Die gemeinnützige Stiftung wird die gewinnorientierte Gesellschaft rechtlich kontrollieren und muss das öffentliche Interesse berücksichtigen. Dennoch kann sie sich frei in Sachen Finanzierung oder Akquisition von Unternehmen bewegen. Die Stiftung wird 26 % der Anteile der gewinnorientierten Gesellschaft besitzen und eine Optionsschein besitzen. Wenn das Unternehmen weiter wächst, kann die Stiftung zusätzliche Anteile erhalten.

Außer OpenAI hat Nvidia auch in das von Elon Musk gegründete xAI investiert. Das Unternehmen hat die Finanzierungsrunde auf 20 Milliarden US - Dollar erweitert. Davon werden etwa 7,5 Milliarden US - Dollar über die Kapitalerhöhung und maximal 12,5 Milliarden US - Dollar über die Emission von Anleihen eines Sonderzweckunternehmens (SPV) beschafft.

Das Sonderzweckunternehmen wird die gesammelten Mittel nutzen, um Hochleistungs - Prozessoren von Nvidia zu kaufen und diese dann an xAI zu vermieten.

Diese Prozessoren werden für das Colossus 2 - Projekt von xAI eingesetzt. Das Colossus - Projekt ist ein Supercomputer - Rechenzentrum von xAI in Memphis, Tennessee. Im ersten Projekt wurden bereits 100.000 Nvidia H100 - GPUs installiert, was es zu einem der größten AI - Trainingscluster weltweit macht. Das derzeit in Bau befindliche Colossus 2 - Projekt plant, die Anzahl der GPUs auf Hunderttausende oder sogar noch mehr zu erweitern.

Am 18. September 2025 hat Nvidia auch angekündigt, dass es Intel mit 5 Milliarden US - Dollar investieren wird und eine tiefe strategische Partnerschaft eingehen wird. Nvidia wird neue Stammaktien von Intel zu einem Preis von 23,28 US - Dollar pro Aktie erwerben, insgesamt 5 Milliarden US - Dollar investieren. Nach Abschluss der Transaktion wird Nvidia etwa 4 % der Anteile von Intel halten und ein wichtiger strategischer Investor werden.

03

Natürlich hat Jensen Huang auch noch vieles andere auf der GTC gesagt.

Beispielsweise hat Nvidia mehrere open - source - AI - Modellfamilien vorgestellt, darunter Nemotron für digitale AI, Cosmos für physikalische AI, Isaac GR00T für Roboter und Clara für biomedizinische AI.

Zugleich hat Jensen Huang die DRIVE AGX Hyperion 10 - Plattform für die Entwicklung von autonom fahrenden Fahrzeugen vorgestellt. Dies ist eine Plattform für die 4. Stufe der autonomen Fahrweise, die Nvidia - Rechenchips und ein komplettes Sensorset, einschließlich Lidar, Kameras und Radars, integriert.

Nvidia hat auch das Halos - Zertifizierungsprogramm eingeführt, das das erste System in der Branche zur Bewertung und Zertifizierung der Sicherheit von physikalischer AI ist, speziell für autonom fahrende Fahrzeuge und Robotiktechnologie.

Das Herzstück des Halos - Zertifizierungsprogramms ist das Halos - AI - System, das das erste Labor in der Branche ist, das von der ANSI - Zertifizierungsstelle anerkannt wurde. ANSI ist die amerikanische Nationalstandardsorganisation, und ihre Zertifizierungen haben eine hohe Autorität und Glaubwürdigkeit.

Die Aufgabe dieses Systems ist es, mithilfe der physikalischen AI von Nvidia zu überprüfen, ob das System für autonomes Fahren den Standards entspricht. Unternehmen wie AUMOVIO, Bosch, Nuro und Wayve sind die ersten Mitglieder des Prüflabors des Halos - AI - Systems.

Um die 4. Stufe der autonomen Fahrweise voranzubringen, hat Nvidia einen multimodalen Datensatz für autonomes Fahren aus 25 Ländern veröffentlicht, der 1700 Stunden an Kameradaten, Radardaten und Lidardaten enthält.

Jensen Huang sagte, dass der Wert dieses Datensatzes in seiner Vielfalt und Größe liegt. Er deckt verschiedene Straßenbedingungen, Verkehrsregeln und Fahrkulturen ab und bildet die Grundlage für das Training von universelleren Systemen für autonomes Fahren.

Jensen Huangs Vision geht jedoch noch weit darüber hinaus.

Er hat auf der GTC eine Reihe von Partnerschaften mit amerikanischen Regierungslaboren und führenden Unternehmen angekündigt, um die AI - Infrastruktur in den Vereinigten Staaten aufzubauen. Jensen Huang sagte, dass wir am Beginn der AI - Industrierevolution stehen und dass dies die Zukunft jeder Branche und jedes Landes definieren wird.

Der Höhepunkt dieser Partnerschaften ist die Zusammenarbeit mit dem US - Energieministerium. Nvidia hilft dem Energieministerium dabei, zwei Supercomputer - Zentren zu bauen, eines im Argonne National Laboratory und eines im Los Alamos National Laboratory.

Das Argonne Laboratory wird einen Supercomputer namens Solstice erhalten, der mit 100.000 Nvidia Blackwell - GPUs ausgestattet ist. Was bedeutet 100.000 GPUs? Dies wird der größte AI - Supercomputer, den das Energieministerium jemals hatte. Darüber hinaus gibt es ein System namens Equinox, das mit 10.000 Blackwell - GPUs ausgestattet ist und voraussichtlich 2026 in Betrieb gehen wird. Zusammen können diese beiden Systeme eine AI - Rechenleistung von 2200 Exaflops liefern.

Paul Kearns, Direktor des Argonne Laboratories, sagte, dass diese Systeme die Leistung, Skalierbarkeit und wissenschaftlichen Möglichkeiten neu definieren würden. Wofür werden diese Rechenkapazitäten eingesetzt? Von der Materialwissenschaft bis zur Klimamodellierung, von der Quantenrechnung bis zur Simulation von Atomwaffen wird diese Rechenleistung benötigt.

Außer den Regierungslaboren baut Nvidia auch ein Forschungs - Zentrum für AI - Fabriken in Virginia. Das Besondere an diesem Zentrum ist, dass es nicht nur ein Rechenzentrum ist, sondern ein Experimentierfeld. Nvidia wird hier etwas namens Omniverse DSX testen, das ein Plan für die Errichtung von Gigawatt - AI - Fabriken ist.