Google bereinigt das XR-Geschäft: Das von KI neu definierte XR wird Geräte und Betriebssysteme "verschlingen".
Am frühen Morgen des 9. Dezember veranstaltete das derzeit erfolgreiche Google eine Android Show: XR. Dabei wurde erstmals die Geräteroute von Android XR klar definiert, und das Prototypmodell der gemeinsam mit Samsung entwickelten KI-Brillen wurde erstmals offiziell vorgestellt.
Aber wenn man nur diese Aspekte sieht, wird diese Android Show: XR leicht unterschätzt.
Es gab keine Preisangaben, keine Parameter-Hochstapler und kein Versuch, ein "umwerfendes Gerät" in den Mittelpunkt der Veranstaltung zu stellen. Die gesamte Veranstaltung war eher wie eine zurückhaltende, fast kalte Routenbeschreibung. Google legte den Großteil der Zeit darauf, die Systemintegration von Gemini und Android XR zu betonen, sprach über das Entwicklungsframework, die APIs und darüber, "welche Geräteformen Android XR abdecken wird", um den Fokus nicht auf ein bestimmtes Endgerät zu legen.
In der offiziellen Erzählung ist Android XR nicht mehr nur "eine Android-Version, die Headsets unterstützt", sondern ein neues Rechenplattform mit Gemini als Kern.
Diskrete Pressekonferenz, aufsehenerregendes neues XR-Konzept
Google betont, dass Gemini als Standard-KI-Schicht in Android XR vorhanden sein wird und sich über die Bereiche Vision, Sprache, Umgebungswahrnehmung und Interaktionsverständnis erstrecken wird. Die Rolle von Android XR besteht darin, ein stabiles, erweiterbares System für dieses multimodale KI-System zu bieten, das ein einheitliches Erlebnis über verschiedene Geräte hinweg ermöglicht.
Mit diesem als Kern hat Google auch auf einmal vier Produktlinien aufgelegt:
XR-Headset, KI-Brillen, kabelgebundene XR-Brillen und die zukünftigen echten kabellosen XR-Brillen.
Die verschiedenen Formen teilen nicht nur dieselbe Systemleistung, sondern auch denselben Entwicklungsstapel – Jetpack, Compose, ARCore und Play Services bleiben für die Entwickler vertraute Werkzeuge, die nur auf die Raumrechnung und tragbare Geräte übertragen wurden. Dies ist auch der pragmatischste und gleichzeitig am leichtesten zu übersehende Aspekt von Android XR:
Es erfordert nicht, dass die Entwickler "sich auf XR umstellen", sondern es wird erwartet, dass XR ganz natürlich eine neue Form der Android-Ekologie wird.
Im strategischen Bereich zeigt Google ebenfalls eine vertraute "alte Schule Zurückhaltung". Android XR versucht nicht, die von Apple verfolgte von oben nach unten gerichtete, stark auf Hardware ausgerichtete Route zu kopieren, sondern setzt auf eine ähnliche Kooperationsweise wie in der Nexus-Zeit:
Das System wird von Google definiert, die Hardware wird an verschiedene Hersteller übergeben, und die Produktformen können parallel weiterentwickelt werden.
Das letzte Meisterwerk des Nexus-Smartphones (in Kooperation mit Huawei), Bildquelle: Google
Ob es sich um das mit Samsung entwickelte Galaxy XR (Projekt Moohan), die nächsten Jahr geplanten KI-Brillen oder die mit XREAL entwickelte kabelgebundenen XR-Brillen (Projekt Aura) handelt, sind diese nur "Träger" von Android XR, keine Grenzen.
Unter dieser "konservativen" Haltung wird Googles "Ambit" noch deutlicher.
Vier Geräte, vier Routen, KI + Betriebssystem als gemeinsamer Kern
Bei der Android Show: XR hat Google zunächst nicht ein "Gerät der Zukunft" vorgestellt, sondern alle Hardwareformen, die Android XR unterstützen kann, auf einmal aufgedeckt.
XR-Headset, KI-Brillen, kabelgebundene XR-Brillen und die noch nicht wirklich aufgetretenen kabellosen XR-Brillen – diese vier Routen bilden das gesamte Gerätespektrum von Android XR.
Wichtig ist nicht, ob sie alle gleichzeitig reif sind, sondern dass Google erstmals eine klare Einschätzung abgegeben hat: Android XR ist nicht für ein bestimmtes Gerät gedacht, sondern soll alle Headset-Rechengeräte abdecken.
Unter den bereits auf den Markt gekommenen Produkten ist das XR-Headset immer noch die derzeit umfassendste Form. Repräsentiert durch das Samsung Galaxy XR (Projekt Moohan) spielt es eher die Rolle eines "Plattformankers" – mit vollständiger Raumdarstellung, Mehrfensterfähigkeit und einem ausgereiften Tracking- und Interaktionssystem hat Android XR ein relativ komplettes Vergleichsobjekt.
Bildquelle: Google
Diese Route hat nicht die Aufgabe, die endgültige XR-Form zu erforschen. Sie ist eher Googles Grundsicherung, um sicherzustellen, dass Android XR sich im XR-Bereich behaupten kann. Was Google wirklich interessiert, sind die KI-Brillen.
Google entwickelt gemeinsam mit Samsung, Gentle Monster (einem bekannten südkoreanischen Modebrillenhersteller) und Warby Parker (einem bekannten amerikanischen Onlinebrillenhersteller) zwei Modelle von KI-Brillen, eine mit Display und eine ohne Display. Ihr gemeinsames Merkmal ist die extreme Reduzierung der "Systempräsenz":
Keine komplexe Benutzeroberfläche, keine immersive Darstellung und fast keine Rede von Rechenleistungsparametern. Stattdessen wird auf tragbare, wenig störende und sofort verständliche Nutzung gelegt.
Bildquelle: Google
Die dritte Route ist das mit XREAL entwickelte kabelgebundene XR-Brillen-Projekt Aura, das voraussichtlich nächstes Jahr offiziell vorgestellt wird.
Diese Art von getrennten AR-Brillen für das Filmanschauen, die wir bereits gut kennen, übernehmen die Brillen selbst die Darstellung und Wahrnehmung, die Rechenleistung und die Batterie sind extern. In der Android Show wurden sie direkt als "wired XR glasses" (kabelgebundene XR-Brillen) definiert. Für Android XR beweist diese Route, dass das System, die Interaktion und das Anwendungsmodell auch in einer Nicht-Headset-Form funktionieren können.
Bildquelle: Google
Was die kabellosen XR-Brillen betrifft, gibt es derzeit keine weiteren Informationen über Produkte oder Projekte. Diese Route ist klar auf die Zukunft ausgerichtet, anstatt die Vorstellungskraft bereits durch Konzeptmodelle oder Demo-Videos zu beanspruchen. In gewisser Weise ist diese "Leerstelle" selbst eine Einstellung: Solange die Anforderungen an Wärmeableitung, Stromverbrauch, Gewicht und Kosten nicht gleichzeitig erfüllt sind, hat Google keine Eile, Android XR an eine bestimmte Hardwaregeneration zu binden.
Was diese vier Routen wirklich zusammenhält, ist nicht das Darstellungsverfahren oder die Ökosystem, sondern Android XR mit Gemini als Kern.
KI definiert XR und "verschlingt" Geräte und Betriebssysteme
In der praktischen Erfahrung erwähnen viele Medien, die eine Vorabtestung gemacht haben, bei Galaxy XR, Projekt Aura oder den KI-Brillen-Prototypen nicht so sehr, "wie intelligent Gemini ist", sondern, dass seine Position im System sich geändert hat. Gemini ist nicht mehr nur in Form einer "App" oder eines "Assistenteneingangs" vorhanden, sondern hat sich auf eine tiefere Systemebene zurückgezogen und übernimmt die Rolle des Verständnisses von Kontext, Raum und Aufgabenstatus.
Die direkteste Auswirkung dieser Veränderung ist die Umstellung der Interaktionsweise. Auf dem Galaxy XR müssen Benutzer keine Objekte angeben oder Operationen wiederholen. Wenn sie nur auf etwas zeigen, es ansehen und einfach ihre Absicht beschreiben, kann das System Fensterverwaltung, Inhaltsfilterung oder Statuswechsel durchführen. Solche Erfahrungen geben bessere Antworten auf die tatsächliche Bedeutung von KI in der realen Arbeitsablauf als kurze Fragen und Antworten.
Echtzeit-Spielvorschläge von Gemini, das Material wurde beschleunigt, Bildquelle: Google
Auf den KI-Brillen ist Gemini der Kern der Interaktion. Es gibt keine Lernkurve und keinen Moduswechsel, sondern alles dreht sich um "was der Benutzer sieht" und "was er wissen will". Im Vergleich zu XR-Headsets oder kabelgebundenen/kabellosen XR-Brillen kommt die Veränderung der Erfahrung hier nicht von der XR-Technologie, sondern davon, dass die KI an einer natürlichen und zurückhaltenden Position platziert wurde.
Wenn man diese Erfahrung abstrahiert, versteht man leicht Googles Gesamtstrategie bei Android XR – eine sehr typische Vorgehensweise aus der Nexus-Zeit: Die Plattform wird von Google definiert, die Kernfunktionen werden vom System gewährleistet, und die konkreten Hardwareformen werden an Partner übergeben, um parallel zu erforschen. Das Wichtige ist, dass Google die Kernbereiche von KI und Betriebssystemökosystem in der Hand behalten kann, ohne zu viel Energie in die Hardware zu investieren.
Bildquelle: Google
Dies ist für Google, das gerade das "Krone der KI" zurückerobert hat und OpenAI dazu gezwungen hat, die "Rote Alarm" auszulösen, sehr wichtig.
Tatsächlich erweitert sich das Kernbattlefeld der KI-Großmodelle schnell. Nick Thompson, CEO der "The Atlantic", hat kürzlich auf TikTok offenbart, dass Sam Altman, CEO von OpenAI, bei einem Lunch gesagt hat, dass der Kernwettbewerb in der KI nicht nur um Modelle geht, sondern auch um Geräte und Betriebssysteme. Selbst Apple ist ein Wettbewerber von OpenAI.
Es ist nicht nur Google und OpenAI, die so denken. Die Entstehung des Doubao-Smartphone-Assistenten und des "Doubao-Smartphones" zeigt auch, dass ByteDance die gleiche Meinung hat.
Bildquelle: ByteDance
Wenn man sich Google noch einmal ansieht, hat diese Strategie, obwohl sie "konservativ" ist und keine Blockbusterprodukte schafft und auch nicht eilig die Formen einheitlich macht, auch deutliche Vorteile. Android XR wird nicht aufgrund einer fehlgeschlagenen Hardwareauswahl vorzeitig als gescheitert angesehen. In einer Phase, in der die Interaktion noch nicht festgelegt ist und die KI die Eingänge neu formt, hat Google entschieden, zuerst das System zu stabilisieren und dann langsam die Hardware voranzutreiben. Dieser Rhythmus mag nicht so aufregend sein, aber er zeigt Geduld.
Die Entwicklung von Android XR könnte ein neues Paradigma werden
Aber sind die Entwickler bereit?
Bei der Android Show: XR hat Google fast alle wichtigen Signale auf die "Entwicklungsseite" gelegt. Das SDK von Android XR wird kontinuierlich aktualisiert. Vertraute Werkzeuge wie Jetpack, Compose, ARCore und Play Services werden eindeutig in das XR-System integriert. Selbst Toolchains wie Glimmer und Projected, die für transparente Anzeigen und Geräte in verschiedenen Formen entwickelt wurden, sind nicht für ein bestimmtes Gerät maßgeschneidert, sondern können auf verschiedenen Brillen und Headsets laufen.
Google ist nicht der Einzige, der tätig wird. Meta hat vor ein paar Tagen einen Zugangstoolkit für tragbare Geräte (hauptsächlich KI-Brillen) für die Entwickler vorgestellt.
Bildquelle: Meta
Meta betont, dass die Brillenfunktionen in bestehende Smartphone-Apps integriert werden können. Die Entwickler müssen keine separaten Apps für Ray-Ban- oder Oakley-Brillen schreiben, sondern können über das SDK in iOS- und Android-Apps auf die Kamera, das Mikrofon und die Sensoren der Brillen zugreifen, um die Brillen zur Wahrnehmungs- und Interaktionserweiterung der Smartphone-Apps zu machen.
Dies ist eine pragmatische Wahl: Zuerst die Skala und die Szenarien lösen, dann über die Plattformierung nachdenken.
Der chinesische Hersteller Rokid hat eine langfristigere Sichtweise. Bereits bevor intelligente Brillen in Mode kamen, hat Rokid eine anfängliche Anwendungsökosystem um AR-Brillen aufgebaut. Seit der Veröffentlichung des Rokid Glasses SDK dieses Jahres können die Entwickler direkt native, unabhängige Apps für die Brillen selbst (auf Basis