StartseiteArtikel

Auf dieser Pressekonferenz mit den schlimmsten Fehlern habe ich das Produkt getroffen, das ich am meisten kaufen möchte.

果壳2025-09-18 17:02
Meta hat die ersten AI-Brillen mit Bildschirm vorgestellt.

Heute morgen, chinesischer Zeit, hat die Meta Connect 2025 Neuprodukt-Presskonferenz begonnen. Mark Zuckerberg hat persönlich Vorgaben gemacht, aber leider ist die Live-Demo öfters ins Stocken geraten, was Zuckerberg sogar ins Rote gehetzt hat.

Meta hat die Zukunft bereits "auf das Gesicht gepackt". Zweifellos lag der Schwerpunkt dieser Presskonferenz wieder auf den intelligenten Brillen, von der Meta Display mit eingebautem Bildschirm bis hin zur professionellen Sportbrille Oakley.

Zuckerberg hat sich seine Brille auf die Nase geschoben und noch einmal deutlich gemacht, wo der Zugang zur nächsten Rechenplattform liegt.

Ray-Ban Meta Display: Die "Bildschirmrevolution" der intelligenten Brille

Zunächst steht die Ray-Ban Meta Display Glasses (im Folgenden Meta Display) im Mittelpunkt. Obwohl das Design weiterhin das klassische Ray-Ban Sonnenbrillendesign aufweist, ist dies die erste intelligente Brille von Meta, in die ein "Bildschirm" in die Linse integriert wurde.

Die Meta Display hat eine kleine HUD (Head-Up-Display) in der rechten Linse, die Benachrichtigungen, Kartennavigation, Nachrichten, Übersetzungsergebnisse, Rückmeldungen des KI-Assistenten und andere Informationen anzeigt. Die Nutzer können die Informationen direkt sehen, anstatt nur auf auditorische Rückmeldungen zu vertrauen. Darüber hinaus ist dieser Bildschirm "für andere Personen praktisch nicht sichtbar". Meta gibt an, dass das Lichtleck weniger als 2% beträgt.

Dieses HUD hat eine Auflösung von 600x600 Pixeln und eine maximale Helligkeit von 5.000 Nits, was heller ist als der gerade veröffentlichte iPhone 17. Es verfügt auch über einen UV-Sensor, der die Helligkeit automatisch in sonnenstarken Umgebungen erhöht.

Wenn Sie jetzt auf der Straße gehen, kann die Brille direkt einen Pfadhinweis in der Peripherie Ihres Sichtfelds anzeigen. Sie können auch E-Mails lesen, während Sie gehen, ohne wie beim Kopf hängendem Smartphone Benutzern auf der Straße in die Arme zu laufen. (Ich empfehle jedoch immer noch, diese Funktion nicht beim Fahren zu nutzen.)

Technisch gesehen ist diese Brille mit einer 12-Megapixel-Kamera ausgestattet, die 3K-Videaufnahmen unterstützt (im Vergleich zur Vorgängerversion mit 1080p). Sie verfügt auch über einen eingebauten Lautsprecher und ein Mikrofon und kann nahtlos in den Meta KI-Assistenten eingebunden werden. Sie können mit Sprachbefehlen Fotos machen, Musik abspielen oder die KI bitten, die Umgebung zu analysieren. Das Gesamtgewicht der Brille beträgt 69 Gramm.

Beim Akkulaufzeitvermögen bietet die Meta Display etwa sechs Stunden Nutzungszeit, was eine Verbesserung gegenüber der Vorgängerversion Ray-Ban Meta mit etwa vier Stunden ist. Wenn die HUD jedoch häufig genutzt wird, kann die Akkulaufzeit verkürzt sein. Meta hat jedoch ein faltbares, tragbares Ladegerät entwickelt, das wie eine Brillenschachtel aussieht und zusätzliche 30 Stunden Akkulaufzeit bietet.

Meta hat diesem Jahr auch ein innovatives Zubehör für die Brille entwickelt - ein Armband namens Meta Neural Band. Es kann winzige Handbewegungen oder Elektromyogramm-Signale erkennen und die Brille mit natürlichen oder sehr feinen Gesten steuern.

Sie können Finger drücken, um "virtuell zu tippen" und Nachrichten zu beantworten, oder den Daumen verschieben, um das Menü zu wechseln, oder das Handgelenk drehen, um die Lautstärke einzustellen, anstatt in der Öffentlichkeit laut "Hey, Meta!" zu rufen.

Obwohl Zuckerberg bei der Live-Demo einige Male die Gestenerkennung fehlgeschlagen ist, ist das Gesamtergebnis dennoch ziemlich futuristisch.

Die Hinzufügung des Armbandinteraktionssystems schließt die Lücke in der Interaktion der Brille und macht die Bedienung der Meta Brille diskreter und effizienter. Wie Zuckerberg und sein Kollege bei der Live-Demo gezeigt haben: Mit den Augen auf die Gegenüber gerichtet und ständig kleine Bewegungen mit den Händen - eine wahre Wunderwaffe für Menschen mit ADHS, die schnell abgelenkt werden.

Das Armband selbst hat eine Akkulaufzeit von bis zu 18 Stunden und wird zusammen mit der Brille verkauft. Beide werden am 30. September auf den Markt kommen.

Wie empfindlich die Gestensteuerung tatsächlich ist, ob es zu Fehlauslösungen kommt und wie komisch die Bewegungen für Außenstehende erscheinen, muss noch in der Praxis getestet werden. Wenn die Sensoren nicht empfindlich genug sind, werden die Nutzer wahrscheinlich auch "Luftkapitäne" werden.

Insgesamt ist dieses Armband Metas Exploration der zukünftigen berührungslosen Interaktion und könnte möglicherweise das Steuerungszentrum für ihre zukünftige AR- und VR-Welt werden.

Was den anderen großen Verkaufspunkt der Meta Display - die integrierte Live-AI - angeht, hat Meta bei der Presskonferenz auch "ihre besten Karten auf den Tisch gelegt".

Der erste große Funktionshinweis ist die Echtzeitübersetzung. Echtzeitübersetzungen sind nichts Neues, aber in Kombination mit dem Bildschirm ist dies wie das Hinzufügen von Untertiteln zu allen Gesprächen. Wenn Sie mit der Brille eine fremdsprachige Speisekarte betrachten, können Sie direkt die chinesische Übersetzung über der Speisekarte anzeigen lassen. In Zukunft können Sie auch "rohe" Inhalte konsumieren (z. B. Originalfilme oder fremdsprachige Podcasts). Darüber hinaus ist dies für gehörlose Menschen ein Segen, da sie über die Untertitel die Sprachausdrücke des Gegenübers verstehen können.

Außer der Echtzeitübersetzung unterstützt die Live-AI auch die Rückmeldung des intelligenten Sprachassistenten. Wenn Sie beispielsweise mit der Meta Brille kochen, müssen Sie nicht mehr hektisch auf Ihrem Smartphone nach Rezepten suchen. Sie können einfach die Meta fragen, wie der nächste Schritt ist, und es wird die Anweisung sowohl sprachlich ausgeben als auch die Schritte auf der HUD der Brille anzeigen.

Leider ist dieser Effekt bei der Live-Demo auf der Presskonferenz völlig gescheitert. Die Live-AI war wie der Siri von vor einigen Jahren, entweder unterbrach sie die Nutzer oder wiederholte die Befehle.

Eine andere KI-Funktion ist die Umgebungsanalyse. Im Grunde genommen ersetzt die Brille die Kamera. Sie können jederzeit die Live-AI aufrufen und Fragen wie "Was für eine Blume ist das vor mir?" oder "Erzähl mir etwas über dieses Bild" stellen.

Meta hat eine Demo gezeigt, bei der Sie mit einem Künstlerfreund sprechen und die aktuelle Umgebung (z. B. ein Wanddekoration) scannen können, um ihm einige Kreativität zu geben.

Metas Demo war eher bescheiden. Der am ehesten denkbare Anwendungsfall für diese Funktion wäre wohl das klassische romantische Komödien-Szenario: Ein Nerd, der nicht weiß, wie man auf einem Date mit einer Frau umgeht, trägt die Meta Display auf einem Date mit seiner Traumfrau, und die KI hilft ihm im Hintergrund. Beispielsweise: "Sie trägt ein Outfit im Maillard-Stil. Sie können ihr den Burberry-Klassik-Scharfschwarz-Scarf loben." Oder: "Sie hat gesagt, dass sie gerne Tennis spielt. Sie können mit ihr über das gerade beendete US-Open sprechen."

Im Vergleich zur Vorgängerversion mit hauptsächlich sprachbasierter KI-Assistentenfunktion macht die visuelle Ausgabe der neuen Meta Display die Interaktion intuitiver. Beispielsweise können Sie die Navigationsroute direkt in der Brille sehen, und bei neuen Nachrichten müssen Sie nicht mehr das Smartphone aus der Tasche holen oder die Nachricht anhören.

Zuckerberg zeigt Live "Zweikampf" | Meta

Obwohl die Meta Display noch nicht auf die gleiche Ebene wie die HoloLens oder die Vision Pro mit voller AR-Funktionalität kommt, hat die Gestenverfolgung und die Echtzeitinteraktion die Interaktion, das Darstellungsvermögen und den KI-Grad der intelligenten Brille um einiges vorangetrieben. Der "halb-AR"-Zustand ist möglicherweise die beste Kompromisslösung zwischen Technologie, Größe, Energieverbrauch und Kosten.

Dementsprechend ist der Preis der Meta Display ab 799 US-Dollar nicht so erschwinglich. Er ist mehr als doppelt so hoch wie der der Vorgängerversion Ray-Ban Meta (ab 299 US-Dollar), was für viele Verbraucher kein "Spaßspielzeug" ist.

Wenn Meta die Software kontinuierlich verbessern kann, könnte dies möglicherweise der "iPhone-Moment" für die AR-Brille werden.

Patience, Coolkids

Ein weiterer Höhepunkt der Meta Connect 2025 war die Oakley Meta Vanguard Sports Glasses, die erste intelligente Leistungsbrille für Athleten, die Meta in Zusammenarbeit mit der amerikanischen renommierten Sportbrillenmarke Oakley entwickelt hat.

Optisch hat sie das klassische umhüllende Rahmen-Design von Oakley übernommen. Der strömungsgünstige Brillenbügel passt sich perfekt an das Gesicht an und sieht eher wie ein professionelles Sportgerät aus.

Technisch gesehen verfügt die Vanguard über eine 12-Megapixel-Kamera mit 122-Grad-Objektiv, die ein breites Sichtfeld abdeckt und 3K-Ultra-HD-Videaufnahmen unterstützt. Das bedeutet, dass die Videos, die Sie während des Laufens aufnehmen, schärfer und klarer sind als die von einem wackelnden Smartphone.

Darüber hinaus ist die Kamera direkt in der Mitte der Brille, über der Nase des Nutzers, platziert. Meta hat bei der Presskonferenz speziell die "Schlüsselbewegungsaufnahme" demonstriert: Wenn das System Hochleistungs-Momente wie Beschleunigungssprünge, Sprünge oder scharfe Kurven erkennt, startet es automatisch die Aufnahme.

Die Brille sieht also wie eine intelligente Weiterentwicklung der GoPro aus, ohne die lästigen zusätzlichen Bänder und ohne so sperrig wie eine Helm-Kamera zu sein. Die Nutzer können sie natürlicher tragen, und die Perspektive ist realistischer.

Diese Brille ist auch mit einem Mikrofonarray aus fünf Mikrofonen ausgestattet, das wirkungsvoll Windgeräusche reduziert. Zuckerberg hat gesagt, dass die Geräuschreduktion so gut ist, dass er selbst in einem Jetsieger alles klar hören kann.

Die Akkulaufzeit beträgt bis zu neun Stunden und sechs Stunden bei Musikwiedergabe. Dies ist so lange wie eine Marathonlaufzeit.

Das mitgelieferte Ladegerät kann zusätzliche 36 Stunden Akkulaufzeit bieten. Mit einer 20-minütigen Schnellladung können Sie den Akku auf 50%