StartseiteArtikel

Wenn Gemini in Smartphones integriert wird, hat Android eine Wende; wenn Gemini in Computer integriert wird, gibt es überall Kritik im Internet.

AI前线2026-05-13 16:03
Gemini kommt in die Geräte, Google's Hardware hat immer noch die gleichen alten Probleme.

Google setzt stark auf Edge-AI. Android hat sich bewährt, aber das AI-Notebook lässt immer noch Rätsel auf.

Im Vergleich zu früher, als AI eher als App, Chatfenster oder Sprachassistenten-Eingang genutzt wurde, verfolgt Google auf Android dieses Mal einen deutlich aggressiveren Ansatz: Es versucht, AI direkt in die Systeminteraktion, Webautomatisierung, Widget-Generierung, Sprach-Eingabe, Fahrzeugnavigation und sogar in die Computermauszeiger-Funktionen zu integrieren, um so die Grundfunktionen zu verbessern.

Bei der Android Show I/O Edition hat Google eine Reihe neuer Produkte und Funktionen rund um die Gemini Intelligence vorgestellt. Kurz gesagt, soll Gemini die Ausführungsschicht der Android-Ekologie werden: Anstatt einfach eine App zu öffnen, um eine Aufgabe zu erledigen, können Benutzer ihre Ziele direkt an das System geben, das dann Apps, Webseiten, Dateien und Gerätefunktionen nutzt, um die Aufgabe zu erfüllen.

Das am stärksten umstrittene Produkt ist das Googlebook. Nach der Veröffentlichung hat die Entwicklergemeinschaft nahezu ausschließlich Zweifel geäußert: Einige halten es für nichts anderes als ein "Mobiles Betriebssystem mit Tastatur", andere befürchten, dass es das Schicksal des Pixelbook teilt und von Google aufgegeben wird, und wieder andere bezweifeln, dass Google mit diesem AI-Hardwarekonzept eine klare Zielgruppe definiert hat.

Die am besten umgesetzte Funktion ist die AI-generierten Widgets

Einer der beeindruckendsten Features auf dem Mobilgerät war die Funktion "Create My Widget".

Ein Benutzer kommentierte: "Als iPhone-Benutzer sehe ich nicht, wie Apple mit iOS diese native, tiefgreifende Individualisierungsfähigkeit konkurrieren soll." Dies bezieht sich auf die "Create My Widget"-Funktion, deren Kern ist, dass Benutzer eigene Widgets über natürliche Sprache generieren können.

Bisher haben Drittanbieter-Apps wie KWGT und Widgetopia Android-Benutzern bereits umfangreiche Optionen zur Widget-Anpassung angeboten. Die meisten dieser Tools basieren jedoch auf vordefinierten Datenquellen wie Wetter, Akkustand oder Börsenkursen, und es ist für normale Benutzer schwierig, die Logik selbst zu definieren, es sei denn, sie schreiben selbst Code.

Google lässt nun Gemini direkt in den Widget-Generierungsprozess einbezogen. Benutzer müssen nur ihre Wünsche in natürlicher Sprache formulieren, und das System generiert automatisch ein individuelles Widget. Wichtig ist, dass dieses Widget im Rahmen des Datenschutzes auf die Kalender-, E-Mail- und SMS-Daten des Benutzers zugreifen kann und so seinen individuellen Lebensstil widerspiegelt.

Beispielsweise kann ein Benutzer eingeben: "Empfehle mir wöchentlich drei Proteinreiche Diätrezepte." Das System generiert dann ein passendes Widget, das der Benutzer direkt auf den Homescreen hinzufügen kann. Der Benutzer kann auch die Größe des Widgets anpassen, um mehr Inhalte anzuzeigen.

Dies ist der erste Schritt in Richtung "Generative UI", wie Google es nennt.

Die "Create My Widget"-Funktion verwandelt den Homescreen in eine persönliche Arbeitsfläche, die von AI dynamisch generiert werden kann. Benutzer müssen nicht mehr aus festen Vorlagen wählen, sondern können ihre eigene Benutzeroberfläche erstellen.

Dies ist auch der Punkt, der Apple bei Android 17 am meisten Sorgen bereiten sollte. Ein Netizen kommentierte: "Auf der WWDC 2025 hat Apple mit einer großen Überarbeitung der iOS-Benutzeroberfläche die iPhone-Benutzer zufriedenstellen können, aber diese Strategie kann nur einmal eingesetzt werden. Auf der WWDC 2026 im Juni muss Apple die Versprechen von Siri 2.0 einlösen und eine wirklich funktionierende intelligente Agentenfunktion einführen. Andernfalls wird iOS 27 im Vergleich zu Android 17 altmodisch erscheinen."

Insgesamt ist die zentrale Fähigkeit der kommenden Android-Ekologie die Gemini Intelligence.

Der Name lässt natürlich an die Apple Intelligence denken. Google beschreibt es als ein neues intelligentes System, das Hardware, Betriebssystem und AI-Modell kombiniert. Sein Ziel ist nicht nur, Fragen zu beantworten, sondern die Aufgaben, die Benutzer bisher in verschiedenen Apps ausführen mussten, in einen kontinuierlichen Prozess zu integrieren.

Der Schlüssel zur Verbesserung liegt in der multimodalen Fähigkeit von Gemini. Beispielsweise kann ein Benutzer ein Werbemagazin für eine Kaffeetasting-Reise in Costa Rica fotografieren und dann Gemini bitten, auf Expedia ähnliche Reisen für sechs Personen zu finden. Gemini versteht automatisch den Inhalt des Bildes, führt die Suche in der Webseite oder App durch und zeigt den Fortschritt über die Benachrichtigungsleiste an.

Außer in den nativen Apps wird die Gemini Intelligence auch in die Android-Version von Chrome integriert. Google argumentiert, dass viele reale Aufgaben nicht in Apps ausgeführt werden und Benutzer oft keine passende App installiert haben. Deshalb hat Google die Automatisierungsfunktionen aus der Desktop-Version von Chrome auf Android-Geräte übertragen, damit Gemini auch auf Webseiten Aufgaben ausführen kann.

Das bedeutet, dass Gemini Aufgaben über Apps und Webseiten hinweg ausführen kann. Für Android ist dies der Anfang einer systemweiten intelligenten Agentenfunktion.

Google hat auch ein neues Sprachkorrekturtool namens Rambler vorgestellt. Sprach-Eingaben sind oft mit Pausen, Wiederholungen und Korrekturen verbunden. Rambler erkennt automatisch, was der Benutzer eigentlich sagen will, und formt es in einen lesbaren, direkt sendbaren Text um. Es unterstützt auch die sekundäre Bearbeitung und die Eingabe in mehreren Sprachen.

Darüber hinaus wird Google in Android 17 eine Betriebssystemüberprüfungsfunktion einführen. Das Unternehmen gibt an, diese Funktion zu entwickeln, um sich gegen bösartige Akteure zu schützen, die veränderte Android-Versionen veröffentlichen. Diese Systeme sehen wie offizielle Versionen aus, können aber heimlich die Integrität des Geräts beeinträchtigen. Es gibt auch die automatische Blockierung gefälschter Bankanrufe, die Echtzeitüberprüfung auf bösartige Anwendungen und ein global aktiviertes Diebstahlschutz-Sperrmodul.

Obwohl diese Funktionen nicht so auffällig wie die Gemini Intelligence sind, zeigt sich, dass Google bei der Verbesserung der Systemintelligenz auch die Vertrauenswürdigkeit und Transparenz von Android-Geräten stärken möchte.

Apple arbeitet an einer Neugestaltung von Siri

Zufällig genug sind am gleichen Tag, an dem Google die AI-Fähigkeiten von Android 17 präsentierte, auch Neuigkeiten über iOS 27 von Apple bekannt geworden.

Nach Berichten aus dem Ausland plant Apple, Siri in iOS 27 neu zu gestalten und es von einem herkömmlichen Sprachassistenten zu einem chatbot-ähnlichen AI-Assistenten wie ChatGPT, Claude oder Gemini zu machen. Der neue Siri wird nicht nur ein neues Design haben, sondern auch mehrseitige Gespräche, Verlaufsaufzeichnung, Bild- und Dokumenthochladung sowie einen systemweiten Such-Eingang unterstützen.

Wenn diese Informationen tatsächlich umgesetzt werden, wird dies eine der wichtigsten Produktneugestaltungen seit der Entstehung von Siri sein. Es bedeutet auch, dass Apple versucht, die Apple Intelligence von einer Sammlung von verstreuten AI-Funktionen zu einem systemweiten intelligenten Eingang für iOS zu machen.

Laut den bisher veröffentlichten Informationen wird sich die Interaktionsform von Siri deutlich ändern. In iOS 27 könnte Siri als neues Kapsel-Animationselement im Dynamic Island erscheinen. Wenn der Benutzer Siri aufruft, wird zunächst eine transparente Ergebniskarte angezeigt. Der Benutzer kann die Karte nach unten schieben, um eine Chatansicht ähnlich einer SMS-Nachrichtenfolge zu öffnen.

Darüber hinaus plant Apple, eine unabhängige Siri-App zu entwickeln, um die Gesprächsverläufe zwischen Benutzer und Siri zu speichern. Die Gesprächsaufzeichnungen werden möglicherweise in einer Grid-Ansicht dargestellt, und der Benutzer kann entweder ein vorheriges Gespräch fortsetzen oder über die "+"-Schaltfläche ein neues Gespräch beginnen.

Eine weitere wichtige Änderung des neuen Siri ist die Unterstützung von multimodalen Fähigkeiten.

Berichte zufolge können Benutzer Bilder und Dokumente in Siri hochladen, damit Siri diese Inhalte versteht, zusammenfasst, bearbeitet oder Fragen beantwortet. Dies wird Siri von einem reinen Sprachbefehlseingang zu einem integrierten AI-Assistenten für Text, Bilder und Dateien machen.

Apple aktualisiert auch das Image Playground, indem es die Bedienelemente vereinfacht und eine neue Bearbeitungsmethode "Beschreibe die Änderungen, die du vornehmen möchtest" hinzufügt. Dies deutet darauf hin, dass Apple die Fähigkeit zur natürlichen Sprachbearbeitung in die Bildgenerierungs- und Bildbearbeitungstools integrieren möchte.

Außer in der Chatansicht könnte iOS 27 auch eine neue systemweite Geste einführen. Benutzer können von der Mitte der oberen Bildschirmkante nach unten schieben, um einen neuen systemweiten Such-Eingang zu öffnen. Dieser Eingang zeigt im Dynamic Island eine Suchleiste mit "Search or Ask" an, um Siri und die Systemsuche enger zu verbinden.

Apple plant auch, in den neuen Such- und Assistentenprozess Drittanbieter-AI-Optionen zu integrieren. Benutzer können möglicherweise in der Suchleiste Chatbots wie ChatGPT oder Gemini als Alternative zu Siri oder der Apple Intelligence auswählen.

Es scheint, dass Apple nicht untätig ist, aber das Problem ist, dass es noch immer in der Phase der "Neugestaltung des AI-Assistenten" ist, während Google bereits versucht, AI in die Ausführungsschicht des Systems zu integrieren.

Wenn das Schlüsselwort für Apple noch "Siri" ist, hat Google bereits "OS Agent" als Schlüsselwort. Natürlich sind die Funktionen von Google noch nicht vollständig, und viele Erfahrungen sind noch fragmentiert. Es wird auch Probleme mit der Konsistenz geben, wenn sie auf verschiedene Geräte, Hersteller und Regionen angewendet werden. Aber in Bezug auf die Richtung scheint Android 17 eher in die Richtung einer nächsten Generation von Betriebssystemen zu gehen, während iOS 27 eher die Lücken des vorherigen Sprachassistenten schließt.

Für Apple besteht weiterhin ein hoher Druck.

Für wen ist das Googlebook mit dem "Intelligenten Mauszeiger" gedacht?

Im Vergleich zur Gemini Intelligence auf Mobilgeräten ist das neu veröffentlichte Googlebook, ein neues Notebook-Modell von Google, deutlich umstrittener.

"Das Googlebook bringt mir sofort das Pixelbook in Erinnerung. Ich bin sicher, es wird nur dann erfolgreich sein, wenn das Preis-Leistungs-Verhältnis extrem gut ist, ansonsten wird es wohl fehlschlagen." Ein Netizen kommentierte so, was die erste Reaktion vieler Entwickler und Technologieinteressierter widerspiegelt.

Google definiert das Googlebook als das weltweit erste Notebook, das von Grund auf für die Gemini Intelligence entwickelt wurde. Es ist keine einfache Fortsetzung des traditionellen Chromebooks, sondern ein neues Notebook-Gerät, das Google für die "Ära der intelligenten Systeme" entwickelt hat.

Die Kernfunktion des Googlebook ist der "Magic Pointer", der "Intelligente Mauszeiger". Der traditionelle Mauszeiger in Notebooks hat in den letzten Jahren hauptsächlich einfache Funktionen wie Klicken, Auswählen und Rechtsklickmenü unterstützt. Das Googlebook versucht, den Mauszeiger zum Eingang für Gemini zu machen. Wenn der Benutzer den Mauszeiger leicht bewegt, wird die intelligente Interaktionsfunktion aktiviert. Wenn der Benutzer auf beliebigen Inhalt auf einer Seite, in einer E-Mail, einem Bild oder einem Dokument klickt, zeigt das System in Abhängigkeit vom Kontext Vorschläge für schnelle Aktionen an.

Beispielsweise sieht ein Benutzer ein Foto eines Kinderzimmers und findet die Wände zu langweilig. Er kann das Foto des Kinderzimmers, das gewünschte Tapetenmuster und Möbelstücke auswählen, und das System generiert automatisch eine Vorschau des Renovierungsdesigns. Bei traditionellen Notebooks erfordert eine ähnliche Aktion normalerweise das Speichern des Bildes, das Hochladen in ein AI-Tool, das Eingeben von Anweisungen und das Warten auf die Generierung. Das Googlebook versucht, diese Schritte in eine einzige Systeminteraktion zu verpacken.

Interessanterweise hat DeepMind gleichzeitig ein Experiment gezeigt, das in die gleiche Richtung geht: Die Neuausrichtung des 50 Jahre alten Mauszeiger-Interfaces mit AI. Die Demonstration zeigte, wie Benutzer über Bewegungen, Sprache und natürliche kurze Befehle Gemini direkt auf dem Bildschirm anweisen können, um Aufgaben zu erledigen.

Das Googlebook betont auch die Integration zwischen Mobilgerät und Notebook. Benutzer können direkt auf dem Googlebook Mobil-Apps ausführen, ohne das Mobilgerät zu nehmen oder zusätzliche Plugins zu installieren oder eine virtuelle Touch-Oberfläche zu verwenden. Darüber hinaus bietet das Googlebook die "Quick Access"-Funktion. Wenn das Mobilgerät mit dem Notebook verbunden ist, können Benutzer direkt über den Dateibrowser auf die Dateien des Mobilgeräts zugreifen.

Google hat auch die Fähigkeit von Gemini gezeigt, Desktop-Widgets für das Notebook zu generieren. Beispielsweise kann ein Benutzer, der eine Familienfeier in Berlin plant, Gemini bitten, ein Widget zu generieren, das automatisch Fluginformationen, Hotelbuchungen, Restaurantreservierungen und Countdowns zusammenfasst.

Derzeit haben Hersteller wie HP, Dell, Lenovo und ASUS sich dem Googlebook-Kooperations-Ökosystem angeschlossen. Google hat angekündigt, dass das Googlebook noch in diesem Jahr auf den Markt kommen wird.

Nach der Veröffentlichung hat sich die Meinung in der Entwicklergemeinschaft deutlich geteilt.

Einige wenige halten das Googlebook für einen wichtigen Schritt, da Google versucht, Gemini tief in das Betriebssystem zu integrieren, was eine vielversprechende Richtung für AI-Geräte ist. Aber die Mehrheit ist skeptisch, und die wichtigste Frage ist: Für wen ist das Googlebook gedacht?

Im Vergleich zu Apple, das bei der Veröffentlichung von Hardware immer klar definiert, für welche Zielgruppe das Produkt gedacht ist, wirkt das Googlebook eher wie ein "Mobiles Betriebssystem mit Tastatur" als wie ein echtes Notebook. Einige Benutzer fragen, ob es ein Android-Äquivalent zum MacBook oder eher ein Tablet mit Tastatur ist.

Hinter diesen Zweifeln steckt die Skepsis gegenüber dem Konzept des "AI-Notebooks". Für Entwickler werden Notebooks und Desktop-Computer immer mehr von Profis und schweren Nutzern verwendet, während leichte Nutzer eher ein Tablet mit Tastatur oder eine Desktop-Modus wie Samsung DeX bevorzugen.

Wenn das Googlebook nur aus Android, Gemini und einer Tastatur besteht, wird es schwer sein, zu beweisen, dass es sich lohnt, es anstelle eines bestehenden Computers, Tablets oder Mobilgeräts zu kaufen.

Das Vertrauen in Googles Hardware ist gefährdet

Schlimmer noch, der Schatten des Pixelbook liegt noch immer über dem Googlebook.

Das Googlebook wird häufig mit dem Pixelbook verglichen. Einige glauben, dass es das gleiche Schicksal wie das Pixelbook haben wird. Einige Benutzer haben das Pixelbook jedoch positiv bewertet, und manche nutzen es noch immer. Das Problem ist, dass Google diese Produktlinie nicht weiterentwickelt hat, sondern nach ein paar Jahren ein neues Produkt mit einem anderen Namen eingeführt hat.

Das lässt viele Benutzer vorsichtig sein, wenn es um das Kauf von Googles Hardware geht.

Von Chromebook über Pixelbook bis hin zum Googlebook hat Google immer wieder "ähnliche Dinge neu erfunden", aber die Marke und die Strategie waren nie stabil. Ein Benutzer fragte direkt: "Wie lange wird das Googlebook unterstützt? Wann wird es in den Google-Grabhaufen geschoben?"

Hinter dieser Frage steckt das Vertrauensproblem, das Google in Bezug auf Hardware und Services über die Jahre aufgebaut hat.

Der Name "Googlebook" gefällt auch nicht allen.

Einige denken, dass Google möglicherweise versuchen möchte, sich vom Chromebook zu distanzieren und die Marke Google mit AI in Verbindung zu bringen, ähnlich wie Chrome mit dem Internet in der Vergangenheit. Aber dieser Name bringt auch neue Verwirrungen mit sich: Wenn das Googlebook nicht von Google selbst hergestellt wird, sondern von mehreren OEM-Herstellern, klingt der Name so, als würde Google das Gerät selbst produzieren.

Einige Benutzer denken, dass das Googlebook möglicherweise über