StartseiteArtikel

Google hat auf einmal vier neue Produkte vorgestellt, und die Google-Pressemitteilung wurde von allen unterschätzt: Die AI-Ambitionen treten zutage.

智能Pro2025-12-11 09:07
Das von KI neu definierte XR wird Geräte und Betriebssysteme „verschlingen“.

Am frühen Morgen des 9. Dezember veranstaltete das derzeit erfolgreiche Google eine Android Show: XR. Dabei wurde erstmals die Geräteroute für Android XR festgelegt und erstmals ein Prototyp einer AI-Brille, entwickelt in Zusammenarbeit mit Samsung, offiziell vorgestellt.

Aber wenn man nur diese Aspekte sieht, kann diese Android Show: XR leicht unterschätzt werden.

Es gab keine Preise, keine Parameter-Sammlung und kein Versuch, ein "umwerfendes Gerät" in den Mittelpunkt der Veranstaltung zu stellen. Die gesamte Veranstaltung war eher eine zurückhaltende und fast ruhige Routenbeschreibung. Google legte den größten Teil der Zeit darauf, die Systemintegration von Gemini und Android XR zu betonen, sprach über das Entwicklungsframework, die API und darüber, "welche Geräteformen Android XR abdecken wird", und vermied es, den Fokus auf ein einzelnes Endgerät zu legen.

In der offiziellen Erzählung ist Android XR nicht mehr nur "die Android-Version, die Headsets unterstützt", sondern ein neues Rechenplattform mit Gemini als Kern.

Bildschirmfreie Google AI-Brille, Material beschleunigt, Bildquelle: Google

Diskrete Pressekonferenz, aufregende neue XR-Vision

Google betonte, dass Gemini als Standard-Intelligenzschicht in Android XR vorhanden sein wird und sich durch die Bereiche Sicht, Sprache, Umweltwahrnehmung und Interaktionsverständnis zieht. Die Rolle von Android XR besteht darin, ein stabiles, erweiterbares und geräteübergreifendes System für diese multimodale KI bereitzustellen.

Mit diesem als Kern legte Google auch auf einmal vier Produktlinien dar:

XR-Headset, AI-Brille, verkabelte XR-Brille und die zukünftige echte kabellose XR-Brille.

Die verschiedenen Formen teilen nicht nur dieselbe Systemleistung, sondern auch dieselbe Entwicklungsumgebung - Jetpack, Compose, ARCore und Play Services bleiben die für Entwickler vertrauten Tools, nur werden sie nun auf die Raumrechnung und tragbare Geräte übertragen. Dies ist auch der pragmatischste und gleichzeitig am leichtesten zu übersehende Aspekt von Android XR:

Es wird nicht von Entwicklern verlangt, "sich auf XR umzustellen", sondern es wird erwartet, dass XR natürlich eine neue Form der Android-Ekosystem wird.

Auch auf strategischer Ebene zeigt Google dieselbe bekannte "alte Schule Zurückhaltung". Android XR hat nicht versucht, die von oben nach unten gerichtete, stark hardwareorientierte Route von Apple zu kopieren, sondern hat das Kooperationsmodell aus der Nexus-Zeit fortgesetzt:

Das System wird von Google definiert, die Hardware wird an verschiedene Hersteller übergeben, und die Produktformen können parallel weiterentwickelt werden.

Das letzte Meisterwerk des Nexus-Smartphones (in Zusammenarbeit mit Huawei), Bildquelle: Google

Ob es sich um das in Zusammenarbeit mit Samsung entwickelte Galaxy XR (Project Moohan), die im nächsten Jahr geplanten AI-Brillen oder die in Zusammenarbeit mit XREAL entwickelte verkabelte XR-Brille (Project Aura) handelt, sind dies nur die "Träger" von Android XR, nicht seine Grenzen.

Unter dieser "Vorsicht" wird Googles "Ambit" noch deutlicher.

Vier Geräte, vier Routen, KI + Betriebssystem ist der gemeinsame Kern

Bei der Android Show: XR tat Google zunächst nicht, ein "zukunftsweisendes Gerät" vorzustellen, sondern legte alle Hardwareformen, die Android XR unterstützen kann, auf einmal dar.

XR-Headset, AI-Brille, verkabelte XR-Brille und die noch nicht wirklich aufgetretene kabellose XR-Brille - diese vier Routen bilden das gesamte Gerätespektrum von Android XR.

Wichtig ist nicht, ob sie alle gleichzeitig reif sind, sondern dass Google erstmals klarstellte, dass Android XR nicht für ein bestimmtes Gerät, sondern für alle Headset-Rechner gerichtet ist.

Unter den bereits realisierten Produkten ist das XR-Headset immer noch die derzeit vollständigste Form. Repräsentiert durch das Samsung Galaxy XR (Project Moohan) übernimmt es eher die Rolle eines "Plattformankers" - eine vollständige Raumdarstellung, Mehrfensterfähigkeiten, ein ausgereiftes Tracking- und Interaktionssystem lassen Android XR einen relativ vollständigen Bezugspunkt haben.

Bildquelle: Google

Diese Route hat nicht die Aufgabe, die endgültige XR-Form zu erforschen, sondern ist eher Googles Grundlage, um sicherzustellen, dass Android XR im XR-Bereich "steht". Was Google wirklich besonders schätzt, ist die AI-Brille.

Google entwickelt derzeit in Zusammenarbeit mit Samsung, Gentle Monster (einem bekannten südkoreanischen Modebrillenhersteller) und Warby Parker (einem bekannten amerikanischen Online-Brillenhersteller) zwei Arten von AI-Brillen, eine mit Display und eine ohne Display. Ihr gemeinsames Merkmal ist, dass der "Systemcharakter" extrem reduziert wird:

Keine komplexe Benutzeroberfläche, keine immersive Darstellung und fast keine Rede von Rechenleistungsparametern, sondern eher das Tragen am Körper, geringe Störungen und sofortiges Verständnis.

Bildquelle: Google

Die dritte Route ist die in Zusammenarbeit mit XREAL entwickelte verkabelte XR-Brille Project Aura, die voraussichtlich nächstes Jahr offiziell vorgestellt wird.

Diese Art von AR-Brillen für das Filmanschauen, die wir bereits gut kennen, wobei die Brille selbst für die Anzeige und Wahrnehmung zuständig ist und die Rechenleistung und die Batterie extern sind, wird in der Android Show direkt als "wired XR glasses" (verkabelte XR-Brille) definiert. Für Android XR beweist diese Route, dass das System, die Interaktion und das Anwendungsmodell auch in einer Nicht-Headset-Form funktionieren können.

Bildquelle: Google

Was die kabellose XR-Brille betrifft, gibt es derzeit noch keine weiteren Produkt- und Projektinformationen. Diese Route ist eindeutig auf die Zukunft ausgerichtet, anstatt die Vorstellungskraft bereits jetzt durch einen Prototyp oder ein Demo-Video zu beanspruchen. In gewisser Weise ist diese "Leerstelle" an sich eine Haltung: Solange die Probleme mit der Wärmeableitung, dem Stromverbrauch, dem Gewicht und der Kosten nicht gleichzeitig gelöst sind, hat Google keine Eile, Android XR an eine bestimmte Hardwaregeneration zu binden.

Und was diese vier Routen wirklich zusammenhält, ist nicht das Anzeigekonzept oder die Ökosystem, sondern Android XR mit Gemini als Kern.

KI definiert XR und "verschlingt" Geräte und Betriebssysteme

In der praktischen Erfahrung erwähnten viele Medien, die eine Vorab-Erfahrung mit Galaxy XR, Project Aura oder dem Prototyp der AI-Brille hatten, nicht so sehr, "wie intelligent Gemini ist", sondern dass seine Position im System sich geändert hat. Gemini existiert nicht mehr nur in Form einer "App" oder eines "Assistenteneingangs", sondern hat sich auf eine niedrigere Systemebene zurückgezogen und übernimmt die Rolle, den Kontext, den Raum und den Aufgabenstatus zu verstehen.

Die direkteste Auswirkung dieser Änderung ist die Umstellung der Interaktionsweise. Auf dem Galaxy XR muss der Benutzer keine Objekte angeben oder die Aktionseingabe wiederholen. Mit einem Zeigen, einem Ansehen und einer einfachen Absichtsbeschreibung kann das System die Fensterverwaltung, die Inhaltsauswahl oder den Statuswechsel durchführen. Solche Erfahrungen können besser die praktische Bedeutung der KI in der realen Arbeitsablauf erklären als kurze Fragen und Antworten.

Echtzeit-Spielempfehlungen von Gemini, Material beschleunigt, Bildquelle: Google

Auf der AI-Brille ist Gemini sogar der Interaktionskern. Keine Lernkurve, keine Moduswechsel, nur um das, was der Benutzer "sieht" und "wissen will". Im Vergleich zu XR-Headset oder verkabelten/kabellosen XR-Brillen kommt die Änderung der Erfahrung hier nicht von der XR-Technologie, sondern davon, dass die KI an einer natürlichen und zurückhaltenden Position platziert wurde.

Wenn man diese Erfahrung abstrahiert, ist es nicht schwer, Googles Gesamtstrategie bei Android XR zu verstehen - ein sehr typisches Vorgehen aus der Nexus-Zeit: Die Plattform wird von Google definiert, die Kernfunktionen werden vom System gewährleistet, und die konkreten Hardwareformen werden an Partner übergeben, um parallel zu erforschen. Wichtig ist, dass Google die Kern-KI und das Betriebssystemökosystem in der Hand behält, ohne zu viel Energie in die Hardware zu investieren.

Bildquelle: Google

Dies ist für Google, das gerade den "KI-Kronenkranz" zurückerobert hat und OpenAI dazu gebracht hat, die "Rote Alarmkarte" zu ziehen, wichtig.

Tatsächlich erweitert sich das Kernbattlefeld der KI-Großmodelle schnell. Nick Thompson, CEO der Atlantic Monthly, gab kürzlich auf TikTok bekannt, dass OpenAI-CEO Sam Altman bei einem Lunchgespräch sagte, dass der Kernwettbewerb in der KI nicht nur um die Modelle, sondern auch um die Geräte und das Betriebssystem geht, und dass auch Apple ein Wettbewerber von OpenAI ist.

Es ist nicht nur Google und OpenAI, die so denken. Die Entstehung des Doubao-Smartphone-Assistenten und des "Doubao-Smartphones" zeigt auch, dass ByteDance ähnliche Ansichten hat.

Bildquelle: ByteDance

Wenn man sich erneut Google anschaut, hat diese Strategie zwar etwas "vorsichtig" und erzeugt keine Blockbuster und eilt nicht, die Form zu vereinheitlichen, aber die Vorteile sind ebenfalls offensichtlich. Android XR wird nicht aufgrund einer fehlgeschlagenen Hardwareauswahl vorzeitig abgelehnt. In einer Phase, in der die Interaktion noch nicht festgelegt ist und die KI die Zugänge neu formt, hat Google entschieden, zunächst das System zu stabilisieren und dann langsam die Hardware voranzutreiben. Dieser Rhythmus mag nicht so aufregend sein, aber er ist geduldig genug.

Die Android XR-Entwicklung könnte ein neues Paradigma werden

Aber sind die Entwickler bereit?

Bei der Android Show: XR legte Google fast alle wichtigen Signale auf die "Entwicklungsseite". Das SDK von Android XR wird kontinuierlich aktualisiert. Die ausgereiften Tools wie Jetpack, Compose, ARCore und Play Services werden eindeutig in das XR-System integriert. Selbst Toolketten wie Glimmer und Projected, die für transparente Anzeigen und Geräte in verschiedenen Formen dienen, sind nicht für ein bestimmtes Hardware entwickelt, sondern laufen auf verschiedenen Brillen und Headsets.

Es ist nicht nur Google, das etwas unternimmt. Meta hat vor ein paar Tagen gerade ein Zugangstoolkit für tragbare Geräte (hauptsächlich AI-Brillen) für Entwickler vorgestellt.

Bildquelle: Meta

Meta betont, dass die Brillenfähigkeiten in bestehende Smartphone-Apps integriert werden können. Entwickler müssen keine eigene App für Ray-Ban- oder Oakley-Brillen schreiben, sondern können in iOS- und Android-Apps über das SDK die Kamera, das Mikrofon und die Sensoren der Brille nutzen, um die Brille zu einer Wahrnehmungs- und Interaktionserweiterung der Smartphone-App zu machen.

Dies ist eine relativ pragmatische Wahl, zuerst die Skala und die Szenarien zu lösen, bevor man über die Plattform spricht.

Der chinesische Hersteller Rokid hat in dieser Hinsicht einen längeren Blick. Schon bevor Smartbrillen zu einem Trend wurden, hat