StartseiteArtikel

Ist das nächste Schlachtfeld für KI-Rechenleistung bereits in den Weltraum ausgeweitet worden?

硅谷1012026-02-09 14:24
Der Landnahme-Kampf für die "Bahnberechnungskapazität" hat begonnen.

Haben Sie sich jemals gefragt: Möglicherweise befindet sich die nächste Generation von "Rechenleistungswerken" gar nicht auf der Erde? In den letzten Jahren hat KI die Rechenzentren zu neuen "Energieungeheuern" gemacht. Stromversorgung, Kühlung, Wasserversorgung und Standortwahl sind alles Schlüsselfaktoren, die die Weiterentwicklung der KI einschränken.

Daher taucht plötzlich eine Idee auf, die wie Science-Fiction klingt: nämlich Rechenzentren in den Weltraum zu verlegen. Die Gründung von Rechenzentren im Weltraum klingt vielleicht wie eine Art PowerPoint-Vortrag, um Investoren anzusprechen. Doch tatsächlich hat sich bereits eine Landnahme um "Orbitale Rechenleistung" eingeleitet.

Auf dem kürzlich beendeten Weltwirtschaftsforum in Davos erklärte Elon Musk, dass der Weltraum in den nächsten 2 bis 3 Jahren der kostengünstigste Ort für die Installation von KI-Rechenzentren sein werde. Kurz darauf, am 2. Februar Ortszeit, kündigte SpaceX an, die Künstliche-Intelligenz-Firma xAI erworben zu haben. Musk gab außerdem bekannt, dass eines der wichtigsten Projekte von SpaceX nach der Fusion darin bestehen würde, die Installation von Weltraum-Rechenzentren voranzutreiben.

Neben Musk beschäftigen sich auch andere Unternehmen intensiv mit Weltraum-Rechenzentren. Blue Origin, gegründet von Amazon-Gründer Jeff Bezos, hat vor über einem Jahr geheim eine Entwicklergruppe für die Erschaffung von speziellen Satelliten für orbitale KI-Rechenzentren gegründet. Google hat kürzlich ein Weltraum-Rechenzentrumsprojekt namens "Suncatcher" angekündigt, das vorsieht, im Jahr 2027 die erste "Rack-Level-Rechenleistung" in den Orbit zu bringen. NVIDIA hat kürzlich über das Startup Starcloud einen mit einem H100-GPU ausgestatteten Satelliten in den Orbit geschossen und erstmals im Weltraum das Nano-GPT-Modell trainiert, was bedeutet, dass die Weltraum-Rechenleistungskonstruktion nun in die praktische Validierungsphase eingetreten ist.

Heute scheint es nicht mehr darum zu gehen, ob Weltraum-Rechenzentren gebaut werden sollen, sondern wer es zuerst schafft. Warum sind Technologieunternehmen bereit, die hohen Startkosten in Kauf zu nehmen, um Server in den Weltraum zu bringen? Wie baut man eigentlich ein Rechenzentrum im Vakuum der hohen Atmosphäre? Kann KI wirklich billiger und effizienter funktionieren, wenn die Rechenleistung von der Erdoberfläche entfernt wird?

01 Warum sollten Rechenzentren in den Weltraum?

Um zu verstehen, warum Rechenzentren in den Weltraum gehen sollen, müssen wir zunächst betrachten, wie schwierig die Lage auf der Erde ist. Wenn Sie heute Silicon Valley-Größen fragen, was die ultimative Einschränkung für die Weiterentwicklung von KI ist, werden sie wahrscheinlich nicht von Algorithmen, Talenten oder sogar Chips sprechen, sondern von zwei grundlegenden physikalischen Beschränkungen: Stromversorgung und Kühlung.

In einer früheren Ausgabe über die "wirklichen Kosten von Rechenzentren" haben wir bereits ausführlich dargelegt, dass die Stromversorgung und Kühlungsausrüstung zusammen weniger als 10 % der gesamten Baukosten eines Rechenzentrums ausmachen, aber tatsächlich die Engpässe darstellen, an denen die Entwicklung von Rechenzentren scheitert.

Erdgebundene Rechenzentren sind im Wesentlichen Energiefresser. Die Dauerstromaufnahme eines Supercomputing-KI-Rechenzentrums ist von einigen Dutzend Megawatt (MW) in der Vergangenheit auf Hundertschaften von Megawatt oder sogar fast einen Gigawatt (GW) gestiegen. Was bedeutet ein Gigawatt? Wenn ein System mit einer Leistung von 1 GW rund um die Uhr, das ganze Jahr über läuft, produziert es in einem Jahr etwa 8,8 Terawattstunden (TW), was in etwa der jährlichen Stromaufnahme einer mittelgroßen Stadt entspricht.

Das Problem, das KI mit sich bringt, besteht nicht nur darin, dass viel Strom verbraucht wird, sondern auch darin, dass dieser Strom schließlich in Wärme umgewandelt wird. Nehmen wir als Beispiel Hochleistungs-GPUs wie den H100: Die Leistung einer einzigen Grafikkarte nähert sich bereits 700 Watt. Wenn Tausende von Grafikkarten in einem Cluster zusammenarbeiten, wird die Kühlung zu einem kostspieligeren Systemprojekt als die Berechnung selbst.

Mit dem exponentiellen Anstieg des globalen Bedarfs an KI-Rechenleistung reicht die herkömmliche Luftkühlungstechnik nicht mehr aus, um die Kühlanforderungen von Rechengeräten mit hoher Dichte zu erfüllen. Flüssigkeitskühlung ist daher unerlässlich. Datenstudien zeigen, dass ein großes Rechenzentrum für jeden verbrauchten Kilowattstunden Strom 1 bis 2 Liter Süßwasser für die Kühlung benötigt. Das bedeutet, dass ein 100-Megawatt-KI-Rechenzentrum täglich möglicherweise über eine Million Liter Wasser verbraucht. Hinzu kommt, dass die Effizienzsteigerung der Kühlungssysteme deutlich abnimmt, während die Leistung der GPUs weiter steigt.

Aber für die Weiterentwicklung von KI ist weiterhin ein hoher Energieverbrauch erforderlich. KI-Riesenunternehmen bemühen sich, Strom zu beschaffen: sie kaufen Kraftwerke um, bauen eigene Stromnetze, kaufen Gasturbinen und forschen an Kernenergie. Die Erde ist bereits mitten in einem KI-Energiekrieg.

Unter diesen Umständen muss man nach einem Ort suchen, an dem Energie reichlicher und stabiler zur Verfügung steht und die Kühlung effizienter ist. Die Antwort ist der Weltraum. Außerhalb der Atmosphäre hat der Weltraum drei Geschenke für die Menschheit bereitgestellt, die die Erde niemals bieten kann:

Das erste Geschenk ist Energie. Auf der Erde ist Energie ein komplexes Systemproblem, das Stromerzeugung, -übertragung, -speicherung, -ausgleich, CO₂-Emissionen und Landnutzung betrifft. Selbst das beste System für erneuerbare Energien ist von Wetterbedingungen und jahreszeitlichen Schwankungen abhängig.

Aber im nahen Erdorbit funktioniert die Sonnenenergie ganz anders: Ohne Brechung durch die Atmosphäre, ohne Wolken und ohne Tag-Nacht-Wechsel kann man theoretisch mit ausreichend großen Solarmodulen rund um die Uhr, fast kostenlose saubere Energie erhalten.

Berechnungen zeigen, dass die Effizienz der Sonnenenergienutzung im Erdorbit 8 bis 10 Mal höher ist als auf der Erde. Das bedeutet, dass Energie erstmalig ein "kontinuierlicher Faktor" statt einer "diskontinuierlichen Ressource" wird, was für die Entwicklung von KI von entscheidender Bedeutung ist. Denn für das Training und die Inferenz von KI ist nicht nur "billiger Strom" wichtig, sondern auch eine stabile und ununterbrochene Stromversorgung. .

Im größeren Rahmen betrachtet ist die "Sonnenenergie" nur die Spitze des Eisbergs des Weltraumenergiegolds. Die "Sonnenenergie", die wir heute im Weltraum nutzen, ist im Wesentlichen ein Nebenprodukt der Sonnenfusion. Die Sonne ist ein natürlicher Kernfusionsreaktor, der seit 4,5 Milliarden Jahren stabil läuft und jede Sekunde mehr Energie freisetzt, als die gesamte Menschheit benötigt.

Viele Investoren forschen heute an der Herstellung kleiner Kernfusionsreaktionen, um Energie zu gewinnen. Musk meint, dass dies völlig unnötig ist, denn über unserem Kopf hängt bereits eine kostenlose, nie erlöschende ultimative Energiequelle.

Das zweite Geschenk ist Kühlung. Auf der Erde benötigen wir große Ventilatoren und teure Flüssigkeitskühlsysteme, aber die Kühlung im Weltraum funktioniert nach völlig anderen physikalischen Gesetzen.

Die KI erzeugt eine enorme Menge an Wärme, während die Hintergrundtemperatur im Weltraum nur 3 Kelvin (etwa -270 °C) beträgt. Wenn man den Kühlkörper von der Sonne weg richtet, kann man eine effiziente natürliche Kühlung erreichen. Im Vakuum muss die Wärme nicht "wegtransportiert" werden, sondern kann in Form von Strahlung in den Weltraum abgestrahlt werden. Wir können große Strahlungskühlplatten verwenden, um Abwärme direkt in den Weltraum zu entsorgen. Ethan Xu, ehemaliger Energie-Strategiemanager von Microsoft, sagte uns, dass dies bedeutet, dass der PUE (Power Usage Effectiveness) fast 1 erreichen kann.

Ethan XU

Ehemaliger Energie-Strategiemanager von Microsoft, ehemaliger Leiter der Forschungsprojekte von Breakthrough Energy

Die Temperatur im Weltraum ist sehr niedrig. In herkömmlichen Rechenzentren wird möglicherweise fast 4 % des Stroms für die Kühlung der Rechenzentren verbraucht, statt für die Bereitstellung von Rechenleistung. Wenn man also die nahezu absolute Null-Temperatur im Weltraum gut nutzen kann, kann die Abwärme der Rechenzentren durch Strahlungskühlung direkt in den Weltraum abgeführt werden. Somit kann der Stromverbrauchseffizienzgrad (PUE) der Rechenzentren theoretisch nahe an 1 herankommen. Das heißt, fast der gesamte Strom, der den Rechenzentren zugeführt wird, wird für die Bereitstellung von Rechenleistung verwendet, statt für die Kühlung.

Das dritte Geschenk ist die minimale Latenz. Licht breitet sich im Vakuum 30 % schneller aus als in Glasfasern. Über Laserverbindungen können Weltraum-Rechenzentren um die komplizierten Landnetze und Unterseekabel herumgehen und so eine echte "weltweite Rechenleistung in Sekundenschnelle" erreichen. Wenn Rechenleistungsknoten im Orbit platziert werden, bedeuten sie nicht mehr "weit weg von der Erde", sondern können in bestimmten Netzwerken zu näher am Benutzer liegenden und schnelleren Vermittlungsknoten werden.

Der Weltraum erfüllt also die drei Bedingungen für kontinuierliche Energie, extreme Kühlung und Kommunikation nahe am physikalischen Limit, die gerade die Dinge sind, an denen die KI-Rechenleistung am meisten mangelt. Aber dieser scheinbar perfekte Plan stößt in der Realität auf ein großes Problem: Wie kann man Server, die schwerer als Klaviere und empfindlicher als Porzellan sind, in Raketen packen und präzise in den Orbit bringen? Wie baut man eigentlich ein Weltraum-Rechenzentrum?

02 Wie baut man ein Weltraum-Rechenzentrum? Zwei Hauptansätze zurzeit

Derzeit konzentrieren sich die globalen Bemühungen auf zwei Hauptansätze: der eine ist die "On-Orbit Edge Computing", der andere der "Orbitale Cloud-Rechenzentrum". Diese beiden Ansätze lösen unterschiedliche Probleme und repräsentieren unterschiedliche Ambitionen in verschiedenen Stadien.

Zu diesen beiden Ansätzen hat kürzlich die Zhejiang-Universität und die Nanyang Technological University in Singapur eine neue Studie in "Nature" veröffentlicht. In dieser Studie wird erstmals ein umfassendes technisches Framework vorgeschlagen. Wir haben auch Dr. Ablimit Aili, den ersten Autor dieser Studie, interviewt, um zu verstehen, was die Unterschiede zwischen diesen beiden Ansätzen sind und wie man sie umsetzt.

  • Chapter 2.1 On-Orbit Edge Computing

Schauen wir uns zunächst den Ansatz der "On-Orbit Edge Computing" an. Ein Edge-Rechenzentrum ist kein vollständiger "Cloud-Service". Sein Kernkonzept ist relativ einfach: Statt alle von Satelliten gesammelten Daten auf die Erde zurückzuschicken, werden KI-Beschleuniger direkt in die bereits im Orbit befindlichen Satelliten eingebaut, so dass die Daten im Weltraum analysiert, gefiltert und komprimiert werden können. Dieser Ansatz eignet sich für kleinere, spezialisierte Anwendungen.

Ablimit Aili

Besonderer Forscher am Yangtze-Delta Smart Oasis Innovation Center der Zhejiang-Universität

Edge-Rechenzentren konzentrieren sich hauptsächlich auf einzelne Satelliten oder kleine Satellitenverbände. Beispielsweise können diese Satellitenverbände Fernerkundungs- oder Bildgebungsdienste anbieten. Um diese Satelliten zu verbessern, fügen wir bei der Aktualisierung bessere Rechenleistung, wie z. B. KI-Beschleuniger, hinzu, um die spezielle Rechenleistung dieser Satelliten (z. B. Bildverarbeitungsleistung) zu erhöhen. Dadurch wird die Menge an Daten, die an die Bodenstationen übertragen werden muss, erheblich reduziert. Dies führt zunächst zu einer erheblichen Verringerung der Latenzzeit des Dienstes und indirekt auch zu einer Verringerung der Datenmenge, die von den Erdgebundenen Rechenzentren verarbeitet werden muss.