Jensen Huang: 240W für Heimgebrauch, dies ist das "erste AI-Gerät", das an Elon Musk übergeben wird.
Am 15. Oktober 2025 übergab Jensen Huang, der CEO von NVIDIA, persönlich ein so kompaktes Gerät wie ein Broschürenbuch in die Hände von Elon Musk.
Der Ort war die Raumschiffstartbasis in Texas.
Er sagte: „Stellen Sie sich vor, den kleinsten Supercomputer neben der größten Rakete arbeiten zu lassen.“
Dies war keine gewöhnliche Geräteübergabe, sondern eine feierliche Zeremonie. Umrahmt von den Applaus der Ingenieure nahm Musk das Gerät namens DGX Spark feierlich entgegen.
Zur gleichen Zeit, auf der anderen Seite der Welt, war gerade ein bislang unerreicht umfangreicher Kauf abgeschlossen: BlackRock, Microsoft und NVIDIA bildeten eine Konsortium, das mit 40 Milliarden US-Dollar einen der weltweit größten Betreiber von Rechenzentren, Aligned, erwarb. Hinter diesem Deal verbirgt sich ein grundlegendes Konsens in der rasch expandierenden KI-Branche: Rechenleistung ist die Kernressource.
Aber während das Kapital massiv in das „Gefecht auf der Cloud“ im Bereich von 5 Gigawatt setzt, öffnete Jensen Huang still und leise eine andere Tür.
DGX Spark ist kein größerer Grafikprozessor (GPU) und auch nicht der leistungsstärkste Rechner.
Es kann lokale Modelle mit 200 Milliarden Parametern ausführen, kann in Desktop-Systeme von Dell, Lenovo und HP integriert werden und unterstützt die Ausführung privater Modelle in Ollama, Roboflow und LM Studio.
Es markiert, dass die KI von der zentralisierten Cloud in die persönliche Sphäre rückt, nicht mehr nur eine ferne Infrastruktur ist, sondern erstmals tatsächlich auf Ihrem Schreibtisch Platz findet.
Die Bedeutung dieses 1,2-Kilogramm-Übercomputers geht weit über die bloße Produktvorstellung hinaus.
Denn das Wichtigste ist nicht, dass er einem Supercomputer für KI Musk übergibt.
Sondern dass er die gesamte Zukunft der KI in die Hände von jedem Einzelnen legt.
Abschnitt 1
Das erste KI-Gerät, das Ihnen am nächsten ist
„Wir haben zum ersten Mal einen Supercomputer für KI auf jeden Schreibtisch gebracht.“ Als Jensen Huang diese Worte sagte, beschrieb er keine zukünftige Vision, sondern hielt ein tatsächlich greifbares Gerät in der Hand.
Dieses Gerät heißt DGX Spark.
Es ist nur so groß wie ein Buch, wiegt 1,2 Kilogramm und hat einen Stromverbrauch von nur 240 Watt. Es kann an einem normalen Steckdose betrieben werden. Dennoch kann es Aufgaben erledigen, die bisher in einem großen Rechenzentrum mit Hunderten von Kilowatt Stromverbrauch erforderlich waren.
Es kann Modelle mit 200 Milliarden Parametern lokal ausführen, ohne auf die Cloud angewiesen zu sein. Sie können direkt auf Ihrem Schreibtisch KI-Anwendungen trainieren, optimieren und bereitstellen.
Jensen Huang benutzte in seiner früheren Pressekonferenz mehrmals das Pronomen „Sie“, um besonders darauf hinzuweisen: KI sollte nicht nur das Privileg einiger weniger Unternehmen sein. Sie sollte so wie ein Handy oder ein Laptop jedem zugänglich sein.
In der Vergangenheit wurde KI in der Regel remote aufgerufen:
Um ein großes Modell auszuführen, mussten Sie sich mit der Cloud von OpenAI oder Anthropic verbinden.
Um der KI Bilder zu zeigen, Sprache zu lassen oder Texte zu schreiben zu lassen, mussten Sie Daten hochladen und an Dritte weitergeben.
Die „Intelligenz“ der KI wurde im Wesentlichen auf „fremden Computern“ erzeugt.
Und DGX Spark ändert dies: Zum ersten Mal verpacken wir die echte KI-Fähigkeit in ein jederzeit einsetzbares persönliches Gerät.
Im Inneren von Spark befindet sich der neueste GB10 Grace Blackwell-Chip von NVIDIA, der mit 128 GB einheitlichem Arbeitsspeicher ausgestattet ist und komplexe Aufgaben wie Bildgenerierung, Spracherkennung, lokale Fragenbeantwortung, Suche, Schreiben, Programmieren und Inferenz unterstützt. Dies ist kein „kleinerer GPU“, sondern ein ganzes Set an KI-Fähigkeiten in einer Werkzeugkiste.
Warum ist dieses Gerät so besonders?
Jensen Huang sprach nicht von Parametern, sondern malte ein Bild: Stellen Sie sich vor, ein Künstler, ein Designer oder ein Programmierer kann an seinem Schreibtisch im Büro mit diesem Gerät alles tun, was er will.
Dies erklärt auch, warum traditionelle PC-Hersteller wie HP, Dell, Lenovo und Asus sofort den Spark-Architektur integriert haben. Denn es geht nicht mehr nur um die „Unternehmens-Nutzung von KI“, sondern um die „KI-Nutzung für jeden“.
Dies ist nicht nur ein Gerät, sondern markiert den Beginn einer neuen Ära:
Die KI ist erstmals so nah an uns.
Abschnitt 2
Es ist nicht die Übergabe eines Modells, sondern das Übergeben eines „Feuers“
Viele denken, dass DGX Spark ein neues Rechengerät ist. Aber Jensen Huang selbst stellte es nicht als ein „neues Produkt“ vor.
Er bezeichnete diese Übergabe als:
Das Übergeben eines „Feuers“ an jeden, der es braucht.
Die Szenerie bei der Übergabe sah tatsächlich wie eine „Feuerzündungszeremonie“ aus.
In Texas, auf der Raumschiffstartbasis von SpaceX.
Jensen Huang trug Spark durch die Raketenfabrik und ging zwischen Ingenieuren in Arbeitskleidung hindurch. Musk war im Speisesaal und verteile Desserts an Mitarbeiter und Kinder. Nachdem sie sich getroffen hatten, führte er Huang persönlich durch die Raketenfabrik und nahm lächelnd das Gerät entgegen, das ihm Huang überreichte. Der Applaus der Anwesenden bezeugte diese persönliche Übergabe.
Dies war nicht das erste Mal.
Jensen Huang erinnerte sich noch an die Situation im Jahr 2016, als er das erste DGX-1-Supercomputer an OpenAI überreichte:
„Damals war ich wie ein Lieferant, der das Gerät nach San Francisco brachte. Mein Kunde war eine gemeinnützige Organisation namens OpenAI. Dieses Gerät wurde der Ausgangspunkt für ihre Trainings von GPT.“
Dies war das zweite Mal. Aber die Bedeutung war völlig anders.
Das erste Mal war die KI erst am Anfang. Das zweite Mal begibt sich die KI in den Alltag von jedem Einzelnen.
Er sprach weder von der Taktfrequenz des Chips noch von Rechenleistungsprüfungen. Er betonte eine Szenerie:
„Dieses Gerät ist wie ein Assistent neben Ihnen, der auf Ihre erste Frage wartet.“
NVIDIA hat in den letzten zwei Jahren genau diese Veränderung vorgenommen.
Sie liefern nicht mehr nur Chips, sondern auch sofort einsetzbare Fähigkeiten. Sobald Sie das Gerät einschalten, können Sie das Bildgenerierungsmodell FLUX.1 ausführen, es als visuellen Suchagenten nutzen oder Ihre eigenen Fragenbeantwortungsroboter, Sprachassistenten und Schreibwerkzeuge bereitstellen.
„Es ist nicht eine Werkzeugkiste, sondern ein Feuer. In Zukunft können jeder Entwickler, Künstler und Unternehmensangestellte sein eigenes KI-Feuer entzünden.“
Wir sagen oft, dass die KI in alle Branchen eindringt. Aber in der Vergangenheit mussten Sie in den meisten Fällen warten, bis andere Ihnen Dienste, APIs und Modelle zur Verfügung stellten. Sie waren nur ein „Benutzer“.
Aber ab dem Moment, als jemand DGX Spark in die Hand nimmt, es auf den Schreibtisch stellt, einschaltet und eigene Modelle trainiert, ändert sich die Rolle.
Sie werden von einem Benutzer zum „Feuerzünder“.
Wichtig ist nicht die Verkleinerung des Geräts, sondern dass die KI endlich aus der Cloud in die Hände der Einzelnen gelangt.
Abschnitt 3
Von 1 Gigawatt auf 240 Watt: Drei Schlüsselfaktoren
In der Vergangenheit musste hinter der Nutzung eines großen Modells möglicherweise ein ganzes Rechenzentrum aufgerufen werden. Von der Stromversorgung, der Kühlung bis zur Wartung und Steuerung, die Kosten für KI waren erstaunlich hoch.
Ein Spitzen-Trainingsserver kann einen Stromverbrauch von 100.000 Watt haben, ein Superwerk kann problemlos 1 Gigawatt (1 Milliarde Watt) überschreiten, was dem Stromverbrauch von Millionen von Haushalten entspricht, wenn sie gleichzeitig Lampen und Klimaanlagen einschalten, ungefähr dem Stromverbrauch einer kleinen Stadt.
Aber jetzt kann ein Desktop-Gerät mit 240 Watt ein großes Modell ausführen. Und es ist keine Warteschlange erforderlich, keine Cloud-Dienstgebühren und keine Datenübergabe.
Diese Veränderung ist nicht plötzlich aufgetaucht. Hinter ihr verstecken sich drei Schlüsselfaktoren, die Jensen Huang sehr deutlich machte.
Erster Faktor: Die gesamte KI-Prozess in einem Gerät integrieren
Jensen Huang sagte:
„Wir bieten nicht nur Chips, sondern auch eine ganze Palette von Chips, Programmiersprachen bis hin zu vortrainierten Modellen. Die Kunden können einfach den Stecker in die Steckdose stecken und loslegen, ohne selbst zusammenbauen zu müssen.“
Das ist wie früher, als man selbst die Hauptplatine, den Arbeitsspeicher und die Festplatte eines Computers zusammenbauen musste, während man heute einen Laptop kauft, der sofort einsatzbereit ist.
Der größte Unterschied bei Spark ist, dass alle Komponenten, die für die Ausführung von KI erforderlich sind, einschließlich Chips, Arbeitsspeicher, Modellen, Softwarewerkzeugen und Microservices, bereits vorinstalliert sind. Sobald Sie es in die Hand nehmen, können Sie es nutzen, genauso wie Sie jetzt Ihr Handy einschalten und direkt Fotos machen, ein Taxi bestellen oder chatten können.
Dies reduziert erheblich die Kosten für die Einrichtung von KI.
Zweiter Faktor: Hohe Effizienz bedeutet echte Kosteneinsparung
Beim Investieren in KI sollte man nicht nur auf die Leistung achten, sondern auch auf die Rendite pro Energieeinheit. Wenn Sie um den Faktor drei weniger Strom verbrauchen als andere, verdienen Ihre Kunden um den Faktor drei mehr.
Was heißt das?
Es ist nicht wichtig, wer den schnellsten Chip hat, sondern wer bei derselben Stromrechnung mehr leistet.
NVIDIA hat sowohl die Chips als auch die Netzwerktechnologie optimiert, sodass DGX Spark mit 240 Watt eine weitaus höhere Datenverarbeitungseffizienz erzielen kann als bisher. Und da das Gerät klein ist, benötigt es fast keine zusätzliche Kühlungssystem, und sogar der Kühler kann vereinfacht werden.
Das bedeutet:
- Privatpersonen können es sich leisten.
- Unternehmen können es schnell einsetzen.
- Es ist nicht mehr von einem professionellen Rechenzentrum abhängig.
- Die Kosten sinken von „Millionenbeträgen“ auf „Zehntausende“ oder sogar weniger.
Dritter Faktor: Jeder kann in diese Kette integriert werden
Früher war die Einrichtung von KI sehr komplex: Cloud-Dienstkonto, riesige entfernte Rechenleistung, Sicherheitsberechtigungen, Zusammenarbeit und Genehmigungsverfahren zwischen mehreren Teams.
Aber jetzt haben fast alle großen PC-Hersteller wie Dell, Lenovo und HP die Spark-Architektur integriert. Solange Sie eines dieser Geräte nutzen, können Sie direkt Spark-kompatible Modelle ausführen.
NVIDIA hat auch einen kompletten KI-Software-Stack vorinstalliert: einschließlich gängiger Trainingswerkzeuge, Modell-Schnittstellen und Bereitstellungsumgebungen. Das ist wie früher, als man einen Führerschein brauchte, um Auto zu fahren, während man jetzt einfach ein Taxiapp öffnen und losfahren kann.
Die Schwelle für die Nutzung von KI ist erstmals so niedrig gesetzt, dass man einfach klicken und loslegen kann.
Jensen Huang fasste es in einem Satz zusammen:
„Es ist nicht, dass die Kunden warten, bis die KI billiger wird, sondern dass wir die KI für alle zugänglich machen müssen.“
Von der zentralisierten Einrichtung bis zur Nutzung am Endgerät, von Kilowatt-Geräten bis zu Desktop-Geräten mit Hunderten von Watt, die Bedeutung von DGX Spark liegt nicht nur darin, dass es nutzbar ist, sondern dass jeder es nutzen kann.
Dies ist der Schlüssel, um die Kosten für KI wirklich zu senken.
Abschnitt 4
KI-Souveränität ist nicht nur ein nationales Anliegen, sondern auch ein persönliches
In der bisherigen KI-Strategie bedeutet die Diskussion über „Souveränität“ oft Wettbewerb auf nationaler Ebene.
Zum Beispiel die Exportbeschränkungen von NVIDIA-Chips, der Wettlauf zwischen Ländern um die Erstellung von großen KI-Modellen und die staatliche Förderung von lokalen Rechenleistungsprozessen … All dies basiert auf dem Kerngedanken, dass die KI nicht vollständig von Importen abhängig sein sollte, sondern eigene Fähigkeiten entwickeln muss.
Jensen Huang sagte auch: Jede Nation sollte nicht ihre nationalen Daten vollständig an Dritte auslagern und dann nur noch intelligente Ergebnisse importieren. Selbst wenn man Technologien von außen kaufen kann, sollte man seine eigenen Fähigkeiten in KI-Training und -Bereitstellung bewahren.
Aber er fügte noch hinzu:
Es ist nicht nur die Nation, die Souveränität braucht, sondern auch jedes Unternehmen und jeder Einzelne.
Hinter diesem Problem steht die Tatsache: Wer die Daten besitzt, besitzt auch die Intelligenz.
KI-Modelle müssen ständig lernen, und die Auswahl der Trainingsdaten bestimmt ihre endgültige Leistungsfähigkeit. In der Vergangenheit waren große Modelle wie GPT, Claude und Gemini zwar leistungsstark, aber sie wurden von anderen trainiert. Wenn Sie sie nutzen, rufen Sie im Wesentlichen fremde Intelligenzsysteme auf.
Und die Entstehung von Spark ändert genau dies: Sie sind nicht mehr nur ein Benutzer, sondern können eigene Modelle trainieren, bereitstellen und sogar anpassen.
Darum betont Jensen Huang immer wieder:
„Unternehmen sollten nicht nur auf externe KI-Dienste angewiesen sein, da dies ihre proprietären Daten anfällig macht. In Zukunft sollte jedes Unternehmen seine eigenen KI-Mitarbeiter haben. Genauso wie die Personalabteilung für menschliche Mitarbeiter zuständig ist, sollte die IT-Abteilung für die Einstellung, das Training und die Verwaltung von digitalen Mitarbeitern verantwortlich sein.“
Dies ist nicht nur eine Metapher, sondern wird von einer kompletten Werkzeugkette unterstützt:
Das AFX-Architektur, eine Zusammenarbeit zwischen NVIDIA und dem Unternehmenssoftwareunternehmen NetApp, ermöglicht es Unternehmen, ihre eigenen Daten (z.B. PDF-Verträge, Entwurfszeichnungen, Experimentdaten) direkt in semantische Materialien umzuwandeln, die von KI verstanden werden können. Das gesamte Prozess von der Eing