Google geht sogar so weit, dass es in den Himmel steigt, um Strom zu produzieren. Aber hat KI wirklich einen Strommangel?
Es wird immer wieder gesagt, dass die Spitze der KI in der Energie liegt. Microsoft-CEO Satya Nadella hat in einem kürzlichen Interview diese Ansicht indirekt bestätigt. „Aufgrund von Strommangel liegen viele GPUs von Microsoft im Lager und sind inaktiv.“ So hat Nadella gesagt.
Google hat kürzlich die geniale Idee umgesetzt, TPU-Chips in den Weltraum zu schicken und die Maschinen mit Sonnenenergie zu versorgen. Dies scheint wie ein „Echo“ auf Nadellas Worte zu sein.
Seltsamerweise scheint Nadellas Äußerung zwar die Energiebranche zu begünstigen, aber weder an der chinesischen Börse noch an der NASDAQ hat der Energiebereich infolge seiner Worte gestiegen. Von Anfang November bis zum Zeitpunkt der Veröffentlichung lag die Zunahme an der chinesischen Börse bei 0%, und die größte Firma im Energiebereich der NASDAQ hat lediglich um 0,77% zugenommen.
Einerseits rufen die Silicon Valley-Riesen laut um Strommangel und entwickeln sogar Lösungen wie das Senden von Geräten in den Weltraum. Andererseits ignoriert der Markt diese eindeutigen Signale und gibt keine Reaktion.
Dies lässt die Frage aufkommen: Hat die KI-Industrie wirklich Strommangel?
Die Meinung von OpenAI-CEO Sam Altman ist: Ja und nein.
Ja, weil es tatsächlich einen Strommangel gibt; nein, weil das eigentliche Problem eigentlich ein Überangebot an KI ist. Obwohl er nicht genau weiß, wie viele Jahre es dauern wird, wird die KI innerhalb von maximal sechs Jahren das menschliche Bedürfnis übersteigen, was auch zu einer Verringerung des Strombedarfs der KI führen wird.
Das heißt, die KI-Industrie hat kurzfristig Stromausfälle, aber langfristig wird das Problem des Strommangels mit der Verringerung des Energieverbrauchs der KI gelöst werden.
01
Im Anfang November 2025 hat Google ein Projekt namens „Project Suncatcher“ angekündigt. Das Projekt besteht darin, TPU-Chips in den Weltraum zu schicken und sie mit Sonnenenergie zu versorgen.
Die Sonne strahlt pro Sekunde etwa 3,86 mal 10 hoch 26 Watt an Energie aus. Dies ist mehr als hundert Billionen Mal der aktuelle globale Stromerzeugungsbetrag der menschlichen Gesellschaft. Satelliten in einer sonnensynchronen Dämmerungsbahn können fast durchgehend Sonnenlicht empfangen. Im Laufe eines Jahres empfangen ihre Solarmodule acht Mal mehr Energie als Solarmodule gleicher Fläche in mittleren Breiten auf der Erde.
Project Suncatcher arbeitet mit der Satellitenfirma Planet Labs zusammen und plant, in einer niedrigen Erdumlaufbahn auf 650 Kilometern Höhe einen KI-Rechencluster aus 81 Satelliten aufzustellen. Gemäß dem Entwurf werden diese Satelliten in einem Luftraum mit einem Radius von einem Kilometer zusammenarbeiten und einen Abstand von 100 bis 200 Metern zueinander halten. Das Projekt plant, Anfang 2027 die ersten beiden Testsatelliten zu starten, um die Machbarkeit des Konzepts zu überprüfen.
Obwohl Google einmal angegeben hat, dass es den Energieverbrauch pro Abfrage seines Gemini-Modells innerhalb eines Jahres um das 33-fache reduziert hat, ist es offensichtlich, dass Google immer noch Strom benötigt.
Die Nutzung von Sonnenenergie im Weltraum ist kein neues Konzept, aber es gibt seit langem ein zentrales Problem: Wie kann die erzeugte Energie effizient und sicher auf die Erde übertragen werden? Sowohl die Verwendung von Mikrowellenstrahlen als auch von Laserstrahlen ist mit Energieverlusten während der Übertragung und potenziellen Auswirkungen auf die Umwelt auf der Erde verbunden, was eine Massenimplementierung erschwert.
Das Konzept von „Project Suncatcher“ umgeht diesen Schritt. Es plant nicht, die Daten auf die Erde zurückzuschicken, sondern nutzt die Energie direkt im Weltraum für Berechnungen und sendet nur die berechneten Ergebnisse auf die Erde zurück.
Die TPU-Supercomputercluster auf der Erde verwenden eine maßgeschneiderte optische Chip-Interkonnektionstechnologie mit geringer Latenz. Die Datenübertragungsrate jedes Chips kann bis zu mehreren hundert Gigabit pro Sekunde (Gbps) erreichen.
Die derzeit kommerziell verfügbaren optischen Kommunikationslinks zwischen Satelliten haben in der Regel eine Datenrate zwischen 1 und 100 Gbps, was weit hinter den Anforderungen an den Massendatenaustausch innerhalb eines KI-Rechenclusters zurückbleibt. Die von Google vorgeschlagene Lösung besteht in der Verwendung der Dense Wavelength Division Multiplexing (DWDM)-Technologie, die theoretisch die Gesamtbandbreite jedes Links zwischen den Satelliten auf etwa 10 Terabit pro Sekunde (Tbps) bringen kann.
Google hat viele Probleme und Lösungen im Zusammenhang mit „Project Suncatcher“ erklärt, wie etwa die Kontrolle der Clusterformation und den Schutz vor Strahlung.
Allerdings hat Google nicht erklärt, wie die Wärmeabfuhr funktionieren soll.
Dies ist ein sehr schwieriges physikalisches Problem. Im Vakuum gibt es keine Luftkonvektion, und die Wärme kann nur durch Strahlung abgeleitet werden. Google hat in einer Studie erwähnt, dass es fortschrittliche Wärmeübertragungsmaterialien und -mechanismen verwenden muss, vorzugsweise passive, um die Zuverlässigkeit zu gewährleisten, um die vom Chip erzeugte Wärme effizient auf die Oberfläche eines speziellen Kühlkörpers zu leiten und dort abzustrahlen. Über die technischen Details dieses Teils gibt die Studie jedoch wenig Informationen.
Tatsächlich ist Google nicht die einzige Firma, die daran denkt, Rechenzentren in den Weltraum zu schicken. Einige Tage vor der Ankündigung von Google hat das Startup Starcloud einen Satelliten mit NVIDIA H100-Chips ins Weltall geschickt und angekündigt, ein weltraumbasiertes Rechenzentrum mit einer Leistung von 5 Gigawatt aufzubauen. Elon Musk hat ebenfalls angegeben, dass SpaceX „weltraumbasierte Rechenzentren bauen“ werde.
Im Mai 2025 wurden die ersten 12 Rechensatelliten des „Trisolaris Computing Constellation“ von der Chinese Academy of Sciences und der Guoxing Aerospace Technology erfolgreich ins Weltall geschickt und ins Netz integriert.
Beim Thema des Senden von KI in den Weltraum, obwohl es neu klingt, haben alle das gleiche Ziel: Wenn man Strom braucht, holt man ihn dort, wo es genug gibt, denn auf der Erde reicht der Strom nicht aus.
02
Der Hauptschuldige für den hohen Strombedarf der KI ist NVIDIA. Die Leistungsaufnahme der GPU-Produkte dieser Firma hat in nur vier Jahren von der Ampere-Architektur zur Blackwell-Architektur um ein Vielfaches zugenommen.
Ein Serverrack mit GPUs der Hopper-Architektur hat eine Nennleistung von etwa 10 Kilowatt. Bei der Blackwell-Architektur liegt die Rackleistung aufgrund der erhöhten Anzahl von GPUs nahe bei 120 Kilowatt.
Außerdem werden bei der Kommunikation von Tausenden von GPUs die NVIDIA-NvLink-Technologie eingesetzt, um die Kommunikationseffizienz zu verbessern. Jeder NvLink-Link hat eine Leistungsaufnahme von 4 bis 6 Watt, und zwischen zwei GPUs gibt es 18 Links. Diese NvLink-Links werden dann auf einem NvSwitch zusammengeführt, um eine nicht blockierende Verbindung herzustellen. Die Leistungsaufnahme eines NvSwitch beträgt 50 bis 70 Watt.
Wenn ein GPU-Cluster 10.000 H100-GPUs hat, benötigt es 157 NvSwitches und 90.000 NvLink-Links. Die Gesamtleistung würde dann zwischen 730 und 1.100 Kilowatt liegen.
Das ist noch nicht alles. Die GPUs sind auch Stromfresser bei der Wärmeabfuhr. Ein üblicher Server mit acht H100-GPUs hat bei Verwendung eines Luftkühlsystems eine Leistungsaufnahme von 150 Watt. Ein Cluster mit 10.000 GPUs benötigt also allein für die Kühlung 187 Kilowatt.
Der Wettbewerb zwischen großen Technologieunternehmen misst sich heute nicht mehr an traditionellen Rechenleistungseinheiten, sondern an der Energieeinheit „Gigawatt“ (GW). Firmen wie OpenAI und Meta planen, in den nächsten Jahren ihre Rechenleistung um mehr als 10 GW zu erhöhen.
Zum Vergleich: Der Energieverbrauch von 1 GW in der KI-Branche würde ausreichen, um etwa eine Million amerikanische Haushalte mit Strom zu versorgen. Das Internationale Energieamt (IEA) schätzt in einem Bericht aus dem Jahr 2025, dass der Energieverbrauch im Bereich der Künstlichen Intelligenz bis 2030 verdoppeln wird, was fast viermal so schnell wie das Wachstum des Stromnetzes selbst ist.
Goldman Sachs prognostiziert, dass der Strombedarf globaler Rechenzentren bis 2027 um 50% auf 92 GW steigen wird. Der Anteil des Strombedarfs amerikanischer Rechenzentren am gesamten Strombedarf wird von 4% im Jahr 2023 auf 10% im Jahr 2030 steigen. Darüber hinaus hat Goldman Sachs darauf hingewiesen, dass die Stromanschlussanfragen einzelner großer Rechenzentrumsparks tatsächlich im Bereich von 300 Megawatt bis zu mehreren Gigawatt liegen können.
Hier kommt aber das Interessante:
NextEra Energy ist die größte Erneuerbare-Energien-Firma in Nordamerika, und der repräsentative Branchen-ETF, der die Leistung des US-öffentlichen Dienstsektors verfolgt, heißt XLU. In den letzten 52 Wochen hat NextEra um 11,62% zugenommen, und der ETF XLU um 14,82%. Im gleichen Zeitraum hat der S&P 500-Index jedoch um 19,89% zugenommen.
Wenn die KI-Branche wirklich einem schwerwiegenden Strommangel gegenübersteht, sollten die Energieunternehmen als Stromlieferanten und der öffentliche Dienstsektor überdurchschnittliche Renditen erzielen, anstatt hinter dem Markt zu bleiben.
Hier hat Nadella einen wichtigen Hinweis gegeben. Er hat gesagt, dass die Genehmigungsprozedur für den Anschluss an das Stromnetz fünf Jahre dauert und die Bauzeit für Stromübertragungsleitungen 10 bis 17 Jahre beträgt.
Andererseits wird die Anschaffung von GPUs in Quartalen gemessen, die Bauzeit von Rechenzentren beträgt normalerweise ein bis zwei Jahre, und die Explosion der KI-Nachfrage ändert sich ebenfalls in Quartalsintervallen.
Die Unterschiede in diesen Zeitskalen führen zu einer zeitlichen Fehlanpassung, die der eigentliche Grund für Nadellas Äußerung über den Strommangel in der KI ist.
Außerdem hat Nadella ein aktuelles Problem, das er nicht lösen kann. 2020 hat Microsoft angekündigt, gleichzeitig mit dem Schutz des Ökosystems „Kohlenstoffneutralität, eine positive Wasserbilanz und Nullabfall“ zu erreichen.
Tatsächlich stammt jedoch fast 60% des Stroms, den Microsofts Rechenzentren verbrauchen, immer noch aus fossilen Brennstoffen, einschließlich Erdgas. Dies führt zu einer jährlichen Kohlendioxidemission, die ungefähr der Gesamtemission von 54.000 durchschnittlichen amerikanischen Haushalten entspricht.
Andererseits hat das Internationale Energieamt in seinem „Bericht über erneuerbare Energien“ vom Oktober 2025 festgestellt, dass das Wachstum der globalen Stromerzeugungskapazität möglicherweise die zusätzliche Stromnachfrage, einschließlich der KI, übertreffen wird.
Der Bericht besagt, dass die installierte Leistung der globalen erneuerbaren Energien zwischen 2025 und 2030 um 4.600 GW steigen wird. Dieser Zuwachs entspricht ungefähr der aktuellen installierten Leistung der Volkswirtschaften Chinas, der Europäischen Union und Japans zusammen. Darüber hinaus wird der Zuwachs in diesen fünf Jahren voraussichtlich doppelt so hoch sein wie in den vorherigen fünf Jahren.
Hier muss besonders auf die Kernenergie hingewiesen werden. Kernenergie ist die einzige Option, die eine stabile, großangelegte und kohlenstoffarme Stromversorgung bieten kann. Das Problem bei traditionellen Großkernkraftwerken ist die lange Bauzeit, die hohen Kosten und das hohe Risiko . Aber kleine modulare Reaktoren (SMR) ändern diese Situation. SMR können wie Flugzeuge oder Autos in der Fabrik in Serie hergestellt werden, indem standardisierte Module hergestellt und dann per Eisenbahn oder Straße an den Bauort transportiert und dort wie „Lego-Bausteine“ zusammengebaut werden.
Die Leistung eines einzelnen SMR beträgt nur 50 bis 300 Megawatt, was viel kleiner ist als die 1.000 bis 1.600 Megawatt eines traditionellen Kernkraftwerks. Dies ist jedoch genau ihr Vorteil. Die kleinere Größe bedeutet eine kürzere Bauzeit, eine geringere Anfangsinvestition und eine flexiblere Standortwahl. SMR können in der Fabrik in Serie hergestellt und dann an den Bauort transportiert und zusammengebaut werden, was die Kosten und das Risiko erheblich reduziert.
SMR ist derzeit die heißeste und modernste Stromerzeugungsmethode. Google hat mit Kairos Power einen Vertrag unterzeichnet und 500 Megawatt an Kernstrom von SMR erworben. Dies ist die erste direkte Investition einer Technologieunternehmen in SMR-Technologie. Microsoft hat im Januar 2024 den ehemaligen Leiter für Kernstrategie und -projekte bei Ultra Safe Nuclear Corporation (USNC) als Leiter für Kerntechnologie ernannt, um SMR und noch kleinere mikroskopische modulare Reaktoren (MMR) zu entwickeln.
Mit anderen Worten, Microsoft fehlt nicht Strom, sondern Zeit.
03
Im Vergleich zur Energiebranche ist die Reduzierung des Energieverbrauchs der KI selbst auch eine wichtige Entwicklungsrichtung.
Altmans Ansicht ist, dass die Kosten pro Einheit Intelligenz jedes Jahr um das 40-fache sinken. Wahrscheinlich werden wir in ein paar Jahren nicht mehr so viel Infrastruktur benötigen. Und wenn die Fortschritte anhalten, könnte die persönliche allgemeine Künstliche Intelligenz auf einem Laptop laufen, was den Strombedarf weiter reduzieren würde.
Altman hat in einem Artikel anhand seiner eigenen Produkte dieses Problem erklärt. Im Artikel heißt es, dass die Kosten pro Token vom GPT-4-Modell Anfang 2023 bis zum GPT-4o-Modell Mitte 2024 in nur einem Jahr um etwa das 150-fache gesunken sind. Bei gleicher Rechenleistung würde der Strombedarf für dieselbe Geschäftstätigkeit in verschiedenen Entwicklungsphasen der KI sinken.
Er sagt, dass eine solche Preisreduktion nicht allein durch eine lineare Reduzierung der Hardwarekosten erreicht werden kann. Hinterher stecken vielmehr eine Kombination aus Algorithmusoptimierung, Verbesserung der Modellarchitektur und Effizienzsteigerung des Inferenz-Engines.
Der AI-Index-Bericht 2025 der Stanford University (HAI) bestätigt diese Aussage. Im Bericht heißt es, dass die Kosten für den Aufruf