StartseiteArtikel

Verdammt! Mein Handy hält mich für eine KI.

爱范儿2025-08-25 19:38
Echtes KI-Hardware braucht nur die schlichteste Form.

Ich, ein Pixel - Smartphone - Benutzer mit sechs Jahren und einem halben Jahr Erfahrung, habe die Made by Google - Pressemitteilung am frühen Donnerstagmorgen mit gerunzelter Stirn verfolgt.

Als das zehnte Produkt in der Produktlinie hat das Pixel 10 nicht wie das iPhone X eine Revolution von der Produktform bis zur Nutzungsmethode gebracht.

Aus hardwaretechnischer Sicht habe ich das Gefühl, dass in einer Zeit, in der selbst das iPhone auf eine große Designänderung setzt, das Pixel eher konservativ agiert.

Die vier neuen Pixel - Modelle dieses Jahres - 10, 10 Pro, Pro XL, Pro Fold - haben abgesehen vom TSMC - Prozessor keine Hardware - Highlights, und die Bildqualität hat sowohl Fortschritte als auch Rückschritte gemacht.

Wenn Google noch ein bisschen Anstand hätte, sollte es diese Generation Pixel 9s nennen...

Die Produktqualität ist durchschnittlich, und die Pressemitteilung selbst lässt viel zu wünschen übrig.

Wenn man normal denkt, sollte das Ziel einer "Produkt - Pressemitteilung" sein, das Produkt klar zu präsentieren und zu beschreiben, die Vorteile des Produkts so weit wie möglich zu zeigen und dann den Preis zu nennen -

Aber Google scheint andere Vorstellungen von einer Pressemitteilung zu haben.

Die Made by Google - Pressemitteilung dieses Jahres ist eher eine sehr kommerzielle Google - Jahreshauptversammlung als eine echte Pressemitteilung. Selbst wenn der Top - Moderator Jimmy Fallon sich bemüht hat, die verschiedenen fragmentierten Szenen und Informationen zusammenzufügen, konnte er die wichtigste Frage nicht beantworten:

Was wurde eigentlich am Pixel dieses Jahres verbessert?

Echtes AI - Hardware erfordert nur die einfachste Form

Man muss zugeben: Google hat mit Gemini sowie den Segmentmodellen wie Veo 3, Flow, Genie 3 zweifellos die leistungsstärkste AI - Modellfirma der Welt, und das ohne Wenn und Aber.

Genie 3 kann in Echtzeit mit 720P und 24 Bildern pro Sekunde eine "interaktive Simulationsumgebung" generieren | Youtube @Fireship

Google weiß natürlich auch den Wert des Zitats von Alan Kay: "Wer Software ernst nimmt, sollte sein eigenes Hardware bauen". Das ist schon an der Entscheidung vor zehn Jahren zu sehen, die Nexus - Smartphone - Serie, die in Zusammenarbeit mit Herstellern produziert wurde, aufzugeben und stattdessen die vollständig eigenständige Pixel - Entwicklung zu starten.

Das Problem ist jedoch, dass sich mit der Zeit die Definition von "Software" geändert hat:

Das erste Pixel von 2016 repräsentierte eine standardisierte Hardware - Definition für das Android - System.

Das Pixel 2 von 2017 repräsentierte eine standardisierte Hardware für die Computational Photography.

Das Pixel 6 von 2021 war wieder eine standardisierte Hardware für das von Android 12 geführte Material You - Design.

Nach der Analyse der gesamten Pressemitteilung glaubt die Redaktion von ifanr, dass Google's Absicht bei diesem Jahr's Pixel 10 klar ist:

Die Pixel 10 - Serie ist eine vollständig für Gemini entwickelte AI - Hardware. Ob Rabbit R1, Humane AI Pin oder das von OpenAI und Jony Ive entwickelte AI - Accessoire, im Vergleich zu Pixel 10 sind sie alle nicht so rein.

Wenn man die Formel von Alan Kay anwendet, hat Google sich von "Software für das Android - System ernst nehmen" zu "Software für AI ernst nehmen" gewandelt.

- Das Pixel - Smartphone als Hardwareform braucht keine Veränderungen mehr.

Bild | PhoneArena

Mit anderen Worten, die Pixel 10 - Serie ist für Android 16 oder Google's Computational Photography nicht mehr so wichtig.

Im Gegenteil, das Pixel 10 ist der Träger und die Erweiterung von Gemini in der realen Welt. Es ist ein AI - Zugangspunkt für 799 US - Dollar - Anrufe und Fotos machen sind nur Nebentätigkeiten.

Dies ist nicht das von uns gewünschte AI - Hardware

Natürlich ist es für Google kein Problem, das Pixel als spezifischen Hardware - Zugangspunkt für Gemini zu gestalten. Dieser Akt an sich ist unbeanstandet. Immerhin ist die Smartphone - Hardwareform, auch wenn sie nur langsam verbessert wird, noch viel praktischer als die Lösungen von Rabbit R1 und Humane AI Pin, die sich absichtlich vom Smartphone abgrenzen und eine Revolution im Smartphone - Bereich anstreben, aber keine Überzeugungskraft haben.

Bild von Rabbit R1 | CNET

Das Problem ist jedoch, dass das derzeitige Pixel, auch wenn es als AI - Hardware gelten kann, immer noch ein sehr wichtiges Problem nicht gelöst hat:

Seine Arbeitslogik unterscheidet sich von unserer Vorstellung von AI - Hardware.

Ob in Science - Fiction - Werken oder in Konzeptbeschreibungen, in den meisten Fällen wird der AI eine konkrete Form mit Trägerfunktionen verliehen, sei es der T - 1000 - Terminator aus flüssigem Metall oder die roten Augen von HAL 9000 und MOSS:

Bild | Wandering Earth Wiki

Das Problem ist jedoch, dass die Art und Weise, wie Benutzer Gemini nutzen, weit von der Vorstellung abweicht, wie Liu Peiqiang MOSS nutzen würde.

Während der gesamten Pressemitteilung hat Google hauptsächlich zwei neue AI - Funktionen gezeigt: Camera Coach und Magic Cue, sowie die Bildbearbeitung mit Gemini im Fotoalbum. Alle diese Funktionen sind in den verschiedenen Systemfunktionen verteilt und erscheinen erst während der Nutzung.

Dies weicht stark von der Vorstellung ab, die die Menschen in den letzten Jahrzehnten von AI hatten -

Ich brauche nicht, dass Magic Cue nach einem Anruf Informationen über das Gespräch auf dem Bildschirm anzeigt. Ich möchte, dass die AI automatisch meine Reiseinformationen und Buchungs - E - Mails prüft, und wenn etwas nicht stimmt, intelligent eine Rückbuchungsanfrage an die Fluggesellschaft macht.

Ich brauche auch nicht, dass ich im Google - Fotoalbum den Bearbeitungsknopf drücken muss, damit das Gemini - Dialogfeld erscheint. Ich möchte direkt Gemini aufrufen: Lösche die unscharfen Bilder aus den zweihundert Fotos, die ich gerade im Club gemacht habe, passe die Helligkeit und Farbe an und wähle neun verschiedene Cocktails aus, um sie auf dem Freundeskreis zu teilen.

Noch ärgerlich ist die Kompositionshilfe Camera Coach in der Kamera. Als wir die Demonstration sahen, dachten wir, dass es über die System - Schnittstelle in Echtzeit den Bildinhalt lesen und Kompositionsvorschläge generieren könnte.

Die Realität ist jedoch, dass man die Funktion manuell aktivieren muss, damit Gemini ein Foto macht und auf dieser Grundlage verschiedene Kompositionsvorschläge gibt. Wenn der Blickwinkel nicht passt, zeichnet es sogar grob mit Hilfe von AI. Dann muss man die Position nach den Anweisungen der AI anpassen, bis man auf die Kamera schaltet:

Bild | YouTube @9to5Google

Mal ganz abgesehen davon, wie jemand auf die Idee kommen konnte, dass man die Hand heben und einen Knopf drücken muss, was den Arbeitsfluss stark unterbricht. Die gesamte Camera Coach - Funktion scheint eine zwangsweise Verbindung zu sein, um die KPIs der Gemini - Abteilung und der Pixel - Abteilung zu vereinbaren.

Die Kompositionshilfe soll eigentlich beim Fotografieren helfen, aber nach diesen Operationen sind die Inferenzgeschwindigkeit und die Vorschläge, auch mit der Rechenleistung des Tensor G5 für kleine Modelle am Endgerät, nicht so zufriedenstellend.

In der Zeit, in der man auf die AI - Operation wartet, haben effiziente Leute schon mehrere Aufnahmen mit verschiedenen Positionen gemacht und die verbesserte ISP - Leistung des Tensor G5 besser genutzt.

Diese Art der Bedienung, die ähnlich wie andere Gemini - AI - Funktionen in Android 16 ist, die erst nach einer manuellen Aktion eingreifen, widerspricht vollständig unseren Erwartungen an AI.

In den Science - Fiction - Werken und AI - Vorstellungen der letzten zehn Jahre sollte die Arbeitslogik der AI darin bestehen, dass der Benutzer Anweisungen gibt, die AI die Anweisungen versteht und automatisch mit allen verfügbaren Ressourcen beginnt, die Aufgabe auszuführen, und nicht, dass ich die AI mit einem Rollstuhl an den Tisch bringe, Papier und Stift bereitstelle und dann die AI anfängt zu malen.

Einfach ausgedrückt, die AI sollte mein Agent sein.

Aber auf dem Pixel 10 bin ich stattdessen der Agent, der für Gemini Daten transportiert, Informationen bereitstellt und es bedient.

Obwohl es ironisch ist, wurde es mit Gemini generiert

Insgesamt hat mir die Pressemitteilung den Eindruck vermittelt, dass das Pixel 10 eher ein Smartphone für Gemini als für Menschen ist. Alle neuen Funktionen funktionieren so, dass der Benutzer Informationen für Gemini bereitstellt, und dann die AI diese Informationen integriert.

Diese Art von AI, die in den Funktionen verteilt ist, kann zwar verhindern, dass die AI zu sehr eingreift, aber im Benutzererlebnis hat man das Gefühl, dass die AI die Hauptrolle einnimmt. Gemini ist wie ein Elternteil, der einem Kind beim Sandburgbau hilft. Erst wenn das Kind den Sand zusammengehäuft hat und um Hilfe bittet, beginnt es, die Form des Schlosses zu gestalten.

Außerdem muss man bedenken, dass das Pixel 10 ein schlechtes Vorbild für andere Smartphone - Hersteller sein könnte: Solange die AI verbessert wird, kann man die Hardwarebasis ignorieren.

Bild | Android Central

Wenn Google in Zukunft weiterhin auf diese Weise vorgeht, wird es ein sehr schlechtes Ergebnis geben: Die Pixel - Benutzer bekommen nicht das, was sie von einem Pixel erwarten, und die AI - Benutzer bekommen nicht das, was sie von einem echten AI - Smartphone erwarten.

Diese Art von zukünftigen Produkten ist wahrscheinlich weder für Google noch für die Verbraucher wünschenswert.

Dieser Artikel stammt aus dem WeChat - Account "APPSO", Autor: Ma Fuyao, veröffentlicht von 36Kr mit Genehmigung.