Zusammenfassung der neuesten Gerüchte über die Apple Glasses von Apple: Sie werden 2026 vorgestellt und setzen auf die Zusammenarbeit von KI und Ökosystem.
Mit der zunehmend heftigen Konkurrenz im Markt für intelligente Wearables sind in letzter Zeit zahlreiche wichtige Informationen über Apples erste intelligente Brille, die Apple Glasses, an die Öffentlichkeit gelangt.
Laut mehreren ausländischen Medien wie 9to5Mac, die sich auf Informationen von Insiderquellen berufen, wird das von Apple intern unter dem Codenamen "Project Atlas" bekannte Produkt voraussichtlich auf der WWDC 2026 offiziell vorgestellt und 2027 in Massenproduktion gehen. Einige Informationen aus der Lieferkette deuten sogar darauf hin, dass bereits Ende 2025 eine offizielle Ankündigung erfolgen könnte.
Interessanterweise hat Apple zur Beschleunigung des Projekts die Entwicklung der leichten Version des Vision Pro, der Vision Air, eingestellt. Dies zeigt, dass Apple intern seine Strategie zugunsten des Marktes für intelligente Brillen verschiebt.
AI + Siri + Kamera
Im Gegensatz zum hochpreisigen Vision Pro, das auf Raumcomputing ausgerichtet ist, verfolgt die Apple Glasses einen praktischeren Ansatz. Sie verzichtet vollständig auf ein eingebautes Display und legt keinen Schwerpunkt auf Augmented-Reality-Erlebnisse. Stattdessen wird die Brille als ein auf das iPhone angewiesener tragbares Accessoire mit Schwerpunkt auf KI und Audio konzipiert. Dieser Ansatz entspricht dem erfolgreichen Modell der Ray-Ban Smart Glasses von Meta und erfüllt besser die Bedürfnisse des Massenmarktes.
Im Hinblick auf die Kernfunktionen basiert die Apple Glasses auf einer Kerninteraktionskombination aus "KI + Siri + Kamera" und kann als "AirPods mit Augen" verstanden werden. In Bezug auf die Hardware wird das Gerät mehrere Kameras haben. Ihre Hauptaufgabe besteht nicht nur darin, Fotos und Videos aufzunehmen, sondern auch, "visuelle Intelligenz" zu ermöglichen - das heißt, Objekte in Echtzeit zu erkennen, Texte zu lesen, Landmarken zu identifizieren und andere Umgebungsinformationen zu erfassen. Diese Informationen werden dann eng mit der von Apple vorangetriebenen Apple Intelligence integriert.
Nehmen wir beispielsweise an, wenn ein Benutzer ein Restaurant-Schild sieht, kann die Brille über das eingebaute Lautsprecher oder die verbundenen AirPods die Bewertungsinformationen mitteilen. Bei einem fremdsprachigen Menü kann sie eine Echtzeitübersetzung anbieten. Diese situationsbezogene Dienstleistung löst präzise das Problem der Situationswahrnehmung bei aktuellen KI-Hardwareprodukten.
Was die Leistung und die Akkulaufzeit betrifft, wird Apple angesichts der Anforderungen an die Leichtigkeit der Brille einen neuen Prozessor entwickeln, der auf den Chips der Apple Watch S-Serie basiert. Das Design konzentriert sich auf einen maximalen Energieeffizienzgrad. Der Prozessor ist hauptsächlich für die Ansteuerung der Kamera, die Verarbeitung von Sensordaten und das Ausführen von grundlegenden maschinellen Lernmodellen verantwortlich. Komplexere Rechenaufgaben werden über drahtlose Verbindung an das iPhone oder die Cloud übertragen, um so den Stromverbrauch und die Akkulaufzeit zu balancieren und sicherzustellen, dass der Benutzer die Brille den ganzen Tag tragen kann.
"AirPods mit Augen"
Da die Apple Glasses als "AirPods mit Augen" bezeichnet wird, hat sie auch einige Designmerkmale.
Das Gerät wird möglicherweise ein gerichtetes Lautsprechersystem einführen, das sich an der adaptiven Audiotechnologie der AirPods Pro 2 orientiert und die Strahlformungstechnologie des HomePod nutzt, um das Problem des Schallechtes zu lösen und die Interaktionseffektivität und Privatsphäre in lauten Umgebungen zu gewährleisten.
Außerdem wird berichtet, dass Apple eine Gesundheitsüberwachungsfunktion für die Brille entwickelt und verschiedene Modelle anbieten wird. Darüber hinaus wird Apple mit einem Optikriesen zusammenarbeiten, um austauschbare Brillengläser zu entwickeln, um so die Bedürfnisse von Menschen mit Sehstörungen zu erfüllen.
Nachdem wir uns das Design angeschaut haben, betrachten wir nun die Verbesserungen bei der Interaktionserfahrung, die vor allem auf der Weiterentwicklung von Siri beruhen.
Es wird berichtet, dass die neue Generation von Siri als Haupteingabemethode fungieren wird und eine stärkere Fähigkeit zur Verständnis von Kontextinformationen haben muss. Sie soll nahtlos die von der visuellen Intelligenz bereitgestellten Umgebungsinformationen integrieren und präzise und knappe Rückmeldungen geben. Durch die Integration von KI wird die Apple Glasses noch vielseitiger einsetzbar und zu einem wirklich nützlichen Werkzeug.
Was den Preis betrifft, gibt es zwei vorherrschende Vorhersagen. Eine geht davon aus, dass der Preis der Apple Glasses dem des Apple Watch Ultra 2 entsprechen wird und zwischen $799 und $999 (etwa 5.600 bis 7.000 Yuan) liegen wird, was Apples Strategie, neue Produktkategorien mit hohem Preis anzubieten, fortsetzt. Die andere Ansicht ist, dass aufgrund des leichten Designs ohne Display die Kosten relativ kontrollierbar sind und der Preis möglicherweise im Bereich von $299, wie bei den Ray-Ban Smart Glasses von Meta, oder bei $499 (etwa 3.500 Yuan) liegen könnte.
Unabhängig von der Preisgestaltung hat Apple bei der Entwicklung von KI-Brillen erneut etwas Verspätung.
Derzeit dominieren die Ray-Ban Smart Glasses von Meta den Markt. Darüber hinaus hat Alibaba die Quark AI Brille eingeführt, und Google arbeitet mit Unternehmen wie Warby Parker an einer intelligenten Brille, die voraussichtlich 2026 vorgestellt wird und in direktem Wettbewerb mit der Apple Glasses stehen wird.
Im Vergleich dazu liegt Apples Kernvorteil in der Integration des Ökosystems und dem Schutz der Privatsphäre. Das Markenimage von "Privatsphäre vor Ort" kann die Bedenken der Benutzer in Bezug auf die Kamera in der Brille verringern. Die nahtlose Zusammenarbeit mit Geräten wie iPhone, Mac und AirPods ist ein Wettbewerbsvorteil, den andere Hardwarehersteller schwerlich nachahmen können.
Interessanterweise zeigen mehrere Quellen, dass Apple bereits an der Planung einer späteren Premiumversion mit Display arbeitet. Die Einführung der aktuellen version ohne Display ist in Wirklichkeit eine Übergangsstrategie, um die Benutzer an die Technologie zu gewöhnen, bevor die Technologie und der Markt reif sind.
Mit dem nahenden Jahr 2026 werden die Weiterentwicklung des Betriebssystems und die KI-Entwicklung von Siri im Mittelpunkt des Interesses stehen. Die Misserfolge des Vision Pro haben gezeigt, dass die Vermarktung von XR-Geräten viel schwieriger ist als die von Smartphones. Ob sich die intelligente Brille in das Leben der Benutzer einfügen und die Kategorie der intelligenten Wearables neu definieren kann, wird sich erst nach der offiziellen Veröffentlichung des Produkts von Apple zeigen.
Dieser Artikel stammt aus dem WeChat-Account "Meku.com", Verfasser: jh, veröffentlicht von 36Kr mit Genehmigung.