Alles über die Android XR-Pressemitteilung auf einen Blick: Google's "eigenes Kind" kommt nächstes Jahr auf den Markt.
Am frühen Morgen des 9. Dezember veranstaltete Google eine besondere Vorstellungsveranstaltung für die XR Edition und zeigte erstmals systematisch die neuesten Fortschritte im XR-Bereich.
Google positioniert Android XR als „die erste einheitliche Plattform für Erweiterte Realität (XR) Geräte weltweit“.
Das Kernstück dieser Plattform ist ihre einheitliche Android-Basis, die die Erfahrungsvorteile aus der Smartphone-Ära direkt auf den XR-Bereich übertragen kann.
Bild: Google plant, Android XR als die erste einheitliche XR-Plattform zu entwickeln.
Um die Android-Erfahrung auf die XR-Plattform zu übertragen, hat Google Samsung und Qualcomm als Partner gewonnen. Samsung ist für die technische Architektur und die Produkte zuständig, während Qualcomm für die Prozessoren verantwortlich ist.
In der Android-Ära war die Nexus-Serie von Google, die von Google direkt betreut wurde, grundsätzlich ein ähnliches Konzept.
Laut Google's Definition ist die Design-Philosophie von Android XR, die Erweiterte Realität als ein kontinuierliches Spektrum von Geräten anzusehen, anstatt als einzelne Produktformen. Anders ausgedrückt, gibt es viele verschiedene Produktformen.
Laut Google's Beschreibung umfasst die Hardware von Android XR nicht nur leistungsstarke Headset-Geräte, die ein tiefgreifendes Immersionserlebnis bieten und sich für Unterhaltung und Spiele mit hohem Interaktionsgrad eignen, sondern auch leichte und modische AI-Smartbrillen, die den ganzen Tag getragen werden können.
Zwischen diesen beiden Typen befinden sich hybride Geräte wie das XREAL Project Aura, die die Eigenschaften beider Typen vereinen.
Google's „eigene Söhne“ bei Android XR
Um die Qualität der Android XR-Erfahrung zu gewährleisten, leiten Google und Samsung die technische Architektur.
Bei der Gestaltung hat Google als das erste Produkt seiner „eigenen Söhne“-Serie einen modischen Stil gewählt. Es hat die Brillenindustrie-Führer Warby Parker und die avantgardistische Designmarke Gentle Monster eingeladen, an der Produktdefinition und -gestaltung mitzuwirken. Das Produktportfolio umfasst zwei Modelle, die 2026 geplant sind.
Eines ist eine Audio-AI-Smartbrille, die auf die Basisinteraktionen fokussiert. Sie ist mit einem fortschrittlichen Mikro-Lautsprecher-Array, einer Hochauflösungskamera und Umgebungs-Mikrofonen ausgestattet. Benutzer können über natürliche Sprache mit Gemini kommunizieren und Funktionen wie Musikwiedergabe, Anrufe und Sofortaufnahmen nutzen.
Das andere Modell integriert darüber hinaus eine Schlüsseltechnologie: einen kleinen, energieeffizienten durchsichtigen Bildschirm. Dieser kann Navigationspfeile, Nachrichtenbenachrichtigungen, Echtzeit-Übersetzungszusätze und andere Informationen an der richtigen Stelle im Benutzerfeld mit hoher Privatsphäre anzeigen.
Da diese beiden Produkte als Smartbrillen bezeichnet werden, ist die Design-Philosophie klar definiert als „zunächst Brillen“.
Deshalb ist die Idee der Designpartner, die komplexen Sensoren und Rechenmodule unsichtbar zu integrieren und in den Alltagsstil zu verwoben.
Das Produkt-Erlebnis basiert vollständig auf Gemini AI und zielt auf eine „kontextsensitive“ und unauffällige Unterstützung ab.
Beispielsweise kann die Brille durch visuelle Suche Objekte, die der Benutzer sieht, erkennen und sofort relevante Informationen liefern, wie z. B. die Inhaltsstoffe von Produkten im Supermarkt.
Die Echtzeit-Übersetzungsfunktion unterstützt natürliche Gespräche im Gesichtlichen Kontakt und überwindet Sprachbarrieren.
Der Kontext-Reminder, der Standort und visuelle Erkennung kombiniert, kann während der Reise automatisch Sehenswürdigkeiten empfehlen oder den Benutzer an komplexen Verkehrsknotenpunkten zum genauen Abholpunkt führen.
Darüber hinaus integriert die Brille die neuesten multimodalen AI-Fähigkeiten von Google. Benutzer können mit einer Sprachanweisung Fotos aufnehmen und mit einem leichten Bildmodell ähnlich Nano Banana Echtzeit-Kreativbearbeitungen durchführen, wie z. B. das Hinzufügen interessanter virtueller Elemente zu Gruppenbildern, um die intelligente Interaktion interessant und persönlich zu gestalten.
Neue Kategorie: „Kabelgebundene XR-Brillen“
Da es verschiedene Produktformen geben soll, kann es nicht nur Smartbrillen geben. Deshalb hat Google zusammen mit XREAL eine neue Geräteklasse zwischen Headset und AI-Brillen eingeführt: die kabelgebundenen XR-Brillen.
Das erste Produkt, das Project Aura, hat eine geteilte Architektur als Kernkonzept - Brille + Rechengerät. Es wird voraussichtlich 2026 offiziell vorgestellt.
Die Benutzer tragen ein leichteres Anzeigegerät in der Form einer normalen Brille, das ein optisches Durchsichtskonzept nutzt. Es ist über ein Kabel mit einem unabhängigen, tragbaren Rechenkern namens „Puck“ verbunden.
Der Puck enthält nicht nur die Hauptrecheneinheit und die Batterie, sondern seine Oberfläche kann auch als Trackpad verwendet werden, um ein Gleichgewicht zwischen Rechenleistung und Tragkomfort zu erzielen.
Das Benutzererlebnis des Project Aura ist nicht neu und lässt sich wie folgt zusammenfassen: Die Bilder aus der realen Welt und die Inhalte der virtuellen Fenster werden hochpräzise übereinander gelegt. Die Interaktionsweise ist intuitiv, und Benutzer können direkt mit der Hand im Raum steuern.
Laut Google's Demonstration kann das Project Aura sowohl als eigenständiges XR-Gerät fungieren und hat die Unterstützung der Google-Anwendungsecosystems, als auch als externer Bildschirm für Mobilgeräte dienen. Natürlich ist auch die AI-Fähigkeit von Gemini integriert.
Samsung bindet sich an Google mit Headset-Produkten
Die Zusammenarbeit zwischen Samsung und Google bei Android XR umfasst nicht nur die Unterstützung bei der Entwicklung der „eigenen Söhne“-Produkte, sondern auch die Vorstellung eines Headset-Produkts namens Galaxy XR.
Tatsächlich hat Samsung bereits im Oktober dieses Produkts vorgestellt. Diesmal geht es hauptsächlich um die Verbesserung von drei Funktionen.
Erstens bricht die PC Connect-Funktion die Barrieren zwischen Headset und persönlichem Computer komplett auf.
Benutzer können jetzt den gesamten Desktop oder einzelne Anwendungsfenster eines Windows-PCs drahtlos und mit geringer Latenz nahtlos in das drahtlose virtuelle Display des Headsets „ziehen“.
Benutzer können in einer völlig immersive Umgebung, die keine physischen Grenzen hat, professionelle Software wie Photoshop oder CAD nutzen, um zu gestalten. Es eröffnet auch eine neue Art der Unterhaltung: das Streamen von High-End-PC-Spielen auf das Headset.
Zweitens hat Google die Likeness-Funktion entwickelt, um das soziale Missgeschick zu vermeiden, dass Benutzer beim Videoanruf mit einem Headset „unsichtbar“ sind. Diese Technologie ermöglicht es Benutzern, ein hochrealistisches digitales Avatar zu erstellen. Das Avatar ist kein statisches Modell, sondern kann in Echtzeit und präzise alle feinen Gesichtsausdrücke, Mundbewegungen und natürliche Kopfbewegungen des Benutzers über die Sensoren des Headsets spiegeln.
In Videokonferenzen wie Google Meet wird der Teilnehmer ein lebendiges, mit den Ausdrücken synchronisiertes „Sie“ sehen, was die Realität und Präsenz des virtuellen Sozialkontakts stark verbessert und Fernarbeit und -kommunikation natürlicher und vertrauter macht.
Drittens ist der neue Travel Mode entwickelt worden, um die Anwendungsfälle des Headsets auch in mobilen Umgebungen zu erweitern. Mit fortschrittlichen Algorithmen kann er die Störungen durch äußere Bewegungen intelligent ausgleichen, das virtuelle Bild im Benutzerfeld deutlich stabilisieren und die Schwindelgefühle aufgrund des Bildrüttelns reduzieren.
Außer den drei sofort nutzbaren Funktionen hat Google auch eine Kerntechnologie angekündigt, die im nächsten Jahr erscheinen soll: die systemweite automatische Raumdarstellung. Auf der Systemebene kann es in Echtzeit und automatisch jede normale 2D-Anwendungs-Oberfläche in eine 3D-immersion-Erfahrung mit räumlicher Tiefe und Raumgefühl umwandeln.
Dadurch müssen die Entwickler keine separate Anpassung vornehmen, was möglicherweise die Inhaltsbibliothek des XR-Ecosystems sofort erheblich erweitern wird und die gesamte digitale Welt „räumlich“ macht. Dies deutet auf eine Zukunft hin, in der die immersive Interaktion von bestimmten Anwendungen zu einer allgemeinen Erfahrung wird.
Aktualisierung des Entwickler-Toolkits
Für die Entwicklergemeinschaft hat Google gleichzeitig die Android XR SDK Developer Preview 3 (DP3) veröffentlicht.
Der Kern dieser Aktualisierung ist die erste offizielle Unterstützung für die vollständige Entwicklung von AI-Smartbrillen. Dies markiert die Erweiterung der Android XR-Plattform von immersive Headset-Geräten auf die Bereich der rund um die Uhr tragbaren Smartwearables.
Um die Entwickler zu helfen, zukunftsträchtige Brillenanwendungen effizient zu entwickeln, hat Google zwei spezielle Entwicklungsbibliotheken vorgestellt:
Jetpack Glimmer ist ein modernes UI-Toolkit speziell für transparente Displays. Basierend auf Compose bietet es sorgfältig optimierte und an die Brilleninteraktion angepasste Oberflächenkomponenten (wie Karten und Listen), damit Entwickler leicht klare, elegante und die reale Welt am wenigsten störende visuelle Erfahrungen schaffen können.
Jetpack Projected ist eine Basis-API-Bibliothek, die die anfänglichen Herausforderungen der Ökosystemerweiterung löst. Sie ermöglicht es Entwicklern, die Kernfunktionen und Geschäftslogik bestehender Android-Smartphone-Anwendungen über einfache Schnittstellen schnell auf die Brillenplattform zu „projizieren“ und die Audio- und Kamera-Zugriffe zu verwalten, um einen reibungslosen Übergang von Mobilgeräten zu Brillen zu ermöglichen und den Entwicklungsprozess erheblich zu vereinfachen.
In Bezug auf die Augmented-Reality-Fähigkeiten hat das SDK ARCore for Jetpack XR integriert und eine wichtige Geo-Spatial-API hinzugefügt. Dies ermöglicht es Entwicklern, globale visuelle Ortungsdienste zu nutzen, um Anwendungen auf der Grundlage präziser geografischer Standorte und realer Szenenerkennung zu entwickeln, wie z. B. die Echtzeit-AR-Fußgänger-Navigation.
Um ein offenes und lebendiges Ökosystem aufzubauen, folgt Android XR dem OpenXR-Industriestandard.
Im Bereich der Spieleentwicklung und hochimmersiver Inhalte kann die Unreal Engine jetzt mit ihrer nativen OpenXR-Unterstützung für Android XR entwickeln. Google hat auch angekündigt, dass sein offizielles Plug-in (das tiefere Handverfolgung und andere Plattformmerkmale integrieren wird) Anfang 2026 erscheinen soll, um das Schaffungspotenzial der Engine weiter auszuschöpfen.
Zur gleichen Zeit bietet die Open-Source-Godot-Engine in ihrer stabilen Version v4.2.2 über ein offizielles Plug-in die vollständige Unterstützung für Android XR, was unabhängigen Entwicklern und kleinen Teams eine starke und flexible Option bietet.
Ein lebendiges Beispiel für die Entwickler kommt von Uber. Sie haben gezeigt, wie man mit den neuen Tools die Reiseerfahrung für AI-Smartbrillen mit Display neu gestalten kann.
Wenn der Passagier am Flughafen ankommt, erscheint auf dem transparenten Display der Brille der Reisezustand und die geschätzte Ankunftszeit, so dass die Informationen ohne Kopfbewegung abgerufen werden können. Mit der integrierten AR-Pfadführung werden virtuelle Pfeile klar über der realen Terminalumgebung überlagert, um den Benutzer zu Fuß zum genauen Abholpunkt zu führen.