Jensen Huang und Yang Yuanqing haben zwei Schwerpunkte für die Künstliche Intelligenz festgelegt | Beobachtungen auf der CES 2026
Jensen Huang und der vom GR00T N1-Modell angetriebene Blue-Roboter
Künstliche Intelligenz war nie nur eine Ansammlung von Daten, Chips und Code, sondern auch ein Produkt der Metaphern und Erzählungen, mit denen wir sie beschreiben. Die Art und Weise, wie wir diese Technologie präsentieren, bestimmt die öffentliche Vorstellung von KI und beeinflusst auch, wie Menschen KI entwerfen, nutzen und wie sie sich auf die Gesellschaft auswirkt.
Die CES ist eine der weltweit größten und einflussreichsten Veranstaltungen der Konsumtechnologiebranche und wird seit langem als das jährliche Leitbild für die globale Technologiebranche angesehen. In den letzten Jahren ist sie insbesondere zum Brennpunkt für die Präsentation der neuesten Entwicklungen in der Künstlichen Intelligenz geworden. Auf der CES 2026 betonten alle Arten von KI-Produkten und -Diensten, von Samsung's The First Look bis hin zu Lenovo's „Smarter AI for All“, von Haushaltsrobotern bis hin zu intelligenten Brillen, die Interaktion mit Menschen. Die Präsentation von Technologie ist jedoch nicht nur die Darstellung von Funktionen und Innovationen, sondern auch die Konstruktion von Erzählungen: Ausstellungen, Veranstaltungen, Neuproduktvorstellungen und Markenwerbung gestalten gemeinsam die Öffentlichkeit's Wahrnehmung und Erwartungen an KI.
Der CES-Stand von Unitree, wo Roboter auftreten
Als Kommunikationswissenschaftler interessiere ich mich dafür, welche Erzählungen in der öffentlichen Diskussion über KI derzeit vorherrschend sind und wie diese die Öffentlichkeit's Verständnis der Fähigkeiten, Risiken und Vorteile der KI-Technologie leiten. Ich habe festgestellt, dass sich die KI-Erzählungen auf der CES 2026 auf zwei Hauptthemen reduzieren lassen: „AI is physical“ und „AI is personal“.
01
AI is physical (Künstliche Intelligenz ist physisch)
Die CES-Veranstaltung hält stets mit der Zeit Schritt. Wussten Sie, dass der erste Videorekorder (VCR) bereits 1970 auf der CES erstmals vorgestellt wurde? Diese Technologieausstellung hat sich seit jeher auf die Frage „Was kommt als Nächstes?“ konzentriert. Obwohl sie offiziell als „Consumer Electronics Show“ bezeichnet wird, scheint sie sich in den letzten Jahren, wie die Automobilbranche weiß, allmählich zu einer Automobilausstellung gewandelt zu haben. Sie hat den Aufstieg der Elektromobile (EV) miterlebt, aber jetzt rückt sie die EVs langsam in den Hintergrund und setzt stattdessen auf intelligente, KI-gestützte Roboter, die in der menschlichen Gesellschaft leben. Daher wird man auf der Ausstellung 2026 merken, dass die reinen Elektromobile deutlich weniger ins Rampenlicht geraten und stattdessen der neueste und beliebteste Begriff in der Branche: „physische Künstliche Intelligenz“ (physical AI) in den Vordergrund tritt.
Physische KI wird die Evolution der autonomen Fahrweise beschleunigen
Vor einigen Monaten veranstaltete General Motors (GM) in New York eine große Präsentation zukunftsträchtiger Mobilitätstechnologien namens „GM Forward“ und kündigte an, dass sein autonomes Fahrsystem Super Cruise ab 2028 „Fahrten ohne Augenkontakt“ (eyes-off driving) unterstützen wird. Derzeit erlaubt das System Fahrern bereits, auf über 750.000 Meilen kompatibler Autobahnen in den USA und Kanada (d. h. bestimmten Straßen, die für die Verwendung des Super Cruise-Systems geeignet sind) „Fahrten ohne Hände“ (hands-off driving) zu unternehmen. Eine solche Aktualisierung bedeutet einen weiteren Schritt in Richtung höherer Stufen der autonomen Fahrassistenz. Im Vergleich dazu erfordern Teslas Autopilot- und Full Self-Driving-Systeme immer noch, dass die Fahrer die Straße im Auge behalten.
GM gab auch bekannt, dass ab 2026 seine Fahrzeuge mit einem von Google Gemini angetriebenen Innenraum-AI-Assistenten ausgestattet werden, der es den Fahrzeugen ermöglicht, wie ein Passagier mit Menschen zu sprechen und Funktionen auf der Grundlage natürlicher Sprache anzubieten, wie das Senden von Nachrichten, die Planung von Routen und die Erklärung von Fahrfunktionen. GM-Chef Mary Barra beschrieb eine zukünftige Vision: Autos werden nicht nur Verkehrsmittel, sondern auch intelligente persönliche Assistenten.
Das bedeutet, dass Fahrzeuge in der Lage sein werden, Fahrern bei der Bewältigung alltäglicher Aufgaben zu helfen, Termine zu verwalten und sogar in gewissem Maße wie private Roboter Dienstleistungen anzubieten. Zum Beispiel, wie wäre es, wenn Ihr Auto auch außerhalb Ihres Fahrzeugs auf einen kleinen Auftrag gehen und Ihre Wäsche abholen könnte? Mit anderen Worten, ein Auto ist wie ein privater Roboter – das ist physische Künstliche Intelligenz.
Ich bringe dieses Beispiel, um zu zeigen, dass bei den Autos auf der CES 2026 der Schlüsselpunkt darin besteht, zu beobachten, wie die Hersteller mit Hilfe von KI und Robotiktechnologien Autos von traditionellen Verkehrsmitteln zu „mobilen Assistenten“ mit intelligenter Wahrnehmung, Lern- und Interaktionsfähigkeiten transformieren. Dies ist der beste Beweis für die Idee der „physischen Künstlichen Intelligenz“ – KI ist nicht länger auf Software oder Bildschirme beschränkt, sondern eng mit physischen Objekten wie Fahrzeugen verbunden, die in der realen Welt wahrnehmen, urteilen und handeln können.
Der stärkste Befürworter dieser Idee ist Jensen Huang. Ich schrieb in meiner Beobachtung der CES 2025, dass sich nach seiner Vision die Robotiktechnologie möglicherweise zur größten Computerindustrie aller Zeiten entwickeln könnte.
Jensen Huang betonte in seiner Eröffnungsrede dieses Jahr immer noch unmissverständlich: „Der 'ChatGPT-Moment' in der Robotik ist gekommen. Der Durchbruch in der physischen Künstlichen Intelligenz – Modelle, die die reale Welt verstehen, schlussfolgern und Handlungen planen können – eröffnet völlig neue Anwendungsbereiche.“ Natürlich ließ er nicht unerwähnt, dass „die Künstliche Intelligenz heute in der physischen Welt verwurzelt ist, was auf die Technologiestützen von NVIDIA bei der Training, Inferenz und Edge Computing zurückzuführen ist.“ Dies liegt daran, dass KI-Systeme jetzt in virtuellen Umgebungen mit synthetischen Daten trainiert werden können, bevor sie in die reale Welt gehen.
Das Cosmos-Modell generiert virtuelle Szenariodaten
Zum Beispiel kann das von NVIDIA vorgeschlagene Weltbasismodellplattform Cosmos, das speziell für Roboter entwickelt wurde und durch Videos, Roboterdaten und Simulationen trainiert wird, Folgendes leisten: Echtzeitvideos aus einzelnen Bildern generieren; Mehrkamera-Fahrzeugszenarien synthetisieren; Randumgebungen basierend auf Szenariohinweisen modellieren; Physikalische Schlussfolgerungen und Bahnvorhersagen ausführen; Interaktive geschlossene Schleifensimulationen ansteuern usw. Aufbauend auf diesen Fortschritten hat Jensen Huang Alpamayo veröffentlicht – eine offene Inferenz-Vision-Sprache-Aktion (VLA)-Modellkombination, die Fahrzeugen die Fähigkeit zur L4-Stufe der autonomen Fahrweise verleiht. „Es kann nicht nur Sensor-Eingaben empfangen und das Lenkrad, die Bremse und die Beschleunigung steuern, sondern auch über die auszuführenden Handlungen schlussfolgern“, sagte Jensen Huang und zeigte ein Video, das ein Fahrzeug auf einer verkehrsreichen Straße in San Francisco reibungslos fahren lässt.
NVIDIA und mehrere Unternehmen zeigen einen Weg auf: Bevor das System in echte Fahrzeuge eingesetzt wird, wird das KI-Modell zuerst in einer hochrealistischen virtuellen Welt trainiert. Diese Methode ermöglicht es den autonomen Fahrsystemen, in der Simulationsumgebung seltene Randfälle zu begegnen und zu lernen, wie man mit ihnen umgeht, wie z. B. ungewöhnliches Wetter oder unvorhersehbares menschliches Verhalten. Nach Abschluss des Trainings können ähnliche Modelle in Lastwagen, Pkws und Elektromobilen eingesetzt werden und ihre Verständnis der physischen Welt in der praktischen Anwendung ständig vertiefen. Solche Technologien ermöglichen es den neuen Generationen von Fahrzeugen, komplexe städtische Szenarien zu interpretieren, Interaktionsverhalten vorherzusagen und mit anderen intelligenten Agenten auf der Straße zu kooperieren.
Im Wesentlichen verwandelt die physische Künstliche Intelligenz Autos in autonome, anpassungsfähige Maschinen, die in den Beschränkungen der realen Welt lernen, schlussfolgern und handeln können. Anhand dieses leicht verständlichen Beispiels von Autos können wir sofort verstehen, dass „physische Künstliche Intelligenz“ das Kernschlüsselwort dieser CES sein kann.
Der Aufstieg der fortschrittlichen physischen Künstlichen Intelligenz, d. h. die Fusion von Robotiktechnologie und Künstlicher Intelligenz, wird den Anwendungsbereich der KI erheblich erweitern, von industriellen Szenarien bis hin zum täglichen Konsumleben. Über die einfache Automatisierung hinaus treten auf der CES 2026 eine Welle von KI-gestützten Geräten auf, die die physische Umgebung verstehen, schlussfolgern und manipulieren können, und ihre konkreten Anwendungsbereiche in Branchen wie Fertigung, Bauwesen und Dienstleistungen werden deutlich sichtbar.
Auf dieser Ausstellung ist neben den Autos ein weiterer Höhepunkt die menschoidähnlichen Roboter.
Demonstration der „Sortierung“ auf der Fertigungsstraße von Tianggong-Robotern
Die fusionierte Robotiktechnologie und Künstliche Intelligenz verwischen die Grenzen zwischen Autos, Haushaltsgeräten, menschoidähnlichen Robotern und Industrierobotern. Plattformen, die von NVIDIA und anderen Unternehmen gezeigt werden, können allgemeine Roboter einheitlich steuern und antreiben, indem sie eine gemeinsame Simulationsumgebung und ein gemeinsames Modell-Architektur nutzen. Diese Plattformen können in Bezug auf Wahrnehmung, Navigation und Handhabung einmalig trainiert werden und dann in verschiedenen Formen neu eingesetzt werden. Das bedeutet, dass wir auf eine allgemeine Robotersysteme stoßen werden, anstatt auf isolierte Maschinen. Verschiedene Roboter können von einem gemeinsamen KI-System lernen, wodurch die gegenseitige Entwicklung von Robotiktechnologie und Künstlicher Intelligenz beschleunigt wird und ein starker Flywheel-Effekt der physischen Künstlichen Intelligenz entsteht.
02
AI is personal (Künstliche Intelligenz ist persönlich)
General Motors möchte zukünftige Autos in private Roboter verwandeln, die mit einer dialogfähigen Künstlichen Intelligenz wie Google Gemini ausgestattet sind. GM ist nicht die einzige Automobilherstellerin, die sich so vorstellt.
Auf der CES 2026 zeigte Sony Honda Mobility den AFEELA Personal Agent – einen KI-Assistenten auf der Grundlage von Microsoft Azure OpenAI, der natürliche und individuelle Innenraum-Gespräche ermöglicht und Anwendungen, Fahrzeugeinstellungen und Unterhaltungsfunktionen verwaltet. Die neueste Aktualisierung zeigt eine noch reibungslosere Leistung und betont seine Rolle als „intelligenter Begleiter“, der die Zukunft der „fahrerlosen“ Fahrweise unterstützt, um Produktivität und Unterhaltungserlebnis zu verbessern.
Jeder weiß heute, dass Autos im Zeitalter der intelligenten Vernetzung zu einem wichtigen mobilen Endgerät geworden sind. Wie können traditionelle mobile Endgeräte mit KI kombiniert werden? Dies hängt von der Antwort der weltweit führenden Hersteller von intelligenten Geräten, Lenovo, ab.
Jensen Huang, Lisa Su und Lip-Bu Tan erscheinen auf der Lenovo Tech World
Lenovo war auf dieser CES sehr erfolgreich und veranstaltete in der berühmten Las Vegas-Sphere seine bisher größte Tech World-Veranstaltung. Die Veranstaltung war gut besucht und mit renommierten Gästen wie Jensen Huang, Lisa Su und Lip-Bu Tan gefüllt. Yang Yuanqing sagte, dass die großen Modelle „öffentliche Intelligenz“ bieten, während Lenovo sich auf persönliche und unternehmerische Intelligenz konzentriert. Daher zeigte diese visuelle Veranstaltung hauptsächlich, wie Lenovos KI-Plattform in der persönlichen und unternehmerischen Sphäre funktioniert.
Dieser chinesische Technologiegigant hat einen intelligenten Assistenten namens Qira entwickelt, der nahtlos in einem breiten Ökosystem von Lenovo- und Motorola-Geräten funktioniert, einschließlich Smartphones, Wearables, PCs und Tablets. Lenovo beschreibt Qira als ein persönliches Umgebungsintelligenzsystem (personal ambient intelligence system), was bedeutet, dass es kontextsensitiv ist und über mehrere Geräte hinweg kontinuierlich arbeitet. Es hat eine sogenannte „Fusionswissensbasis“ aufgebaut, die die Interaktionen, Dokumente und Erinnerungen der Benutzer auf verschiedenen Geräten integriert, um ein individuelles Erlebnis zu schaffen und ein „dynamisches Modell der Benutzerwelt“ zu erstellen. Dadurch müssen Benutzer nicht ständig den Kontext wechseln und benötigen nur sehr wenig Hintergrundinformationen