Es ist 2026. Wird dieser AI-Desktop-Pet mit 300.000 Pixeln immer noch heiß umworben?
Zurück in das Jahr 2024 waren die beiden aufregendsten Produktrückmeldungen in der Tech-Szene von Humane und Rabbit: Das eine hat ein am Brustkragen befestigbares AI-Badge entwickelt, das andere ein in die Tasche steckbares kleines AI-Quadrat. Die Produkte dieser beiden Unternehmen haben für eine Weile eine Welle von Begeisterung und Vorstellungen gesorgt: Die Zeit der AI-Hardware scheint angebrochen zu sein.
Die Geschichte hat sich jedoch schnell wendet. Das Humane AI Pin kostet 699 US-Dollar, dazu monatlich 24 US-Dollar für ein Abonnement. Es hat keinen Bildschirm und projiziert Informationen mittels Laser auf die Handfläche. Eine Testbericht von WIRED hat es mit einem Wort beschrieben: katastrophal.
Das Rabbit R1 ist viel günstiger, es kostet 199 US-Dollar und hat einen kleinen 2,88-Zoll-Bildschirm. Sein Hauptmerkmal ist ein "großes Aktionsmodell", das Ihnen hilft, Apps auf Ihrem Smartphone zu bedienen. Doch die Tester haben festgestellt, dass man bei der Verwendung des R1 immer wieder das Smartphone herausnehmen muss, um die Aufgabe zu beenden.
Beide Produkte haben den gleichen Fehler gemacht: Sie versuchen, das Smartphone zu ersetzen. Aber das Smartphone ist nicht nur ein Gerät, sondern der Container für Ihr gesamtes digitales Leben: Ihre WeChat-Chats, Ihre Bank-Apps, die Zugänge zu Lieferdiensten, Taxifahrten und Barzahlungen über QR-Codes - alles ist darin.
Die über ein Jahrzehnt hinweg aufgebauten App-Ekosysteme, in Kombination mit Nutzerpräferenzen, gespeicherten Passwörtern und anderen Daten, bilden ein äußerst umfangreiches und persönliches Betriebssystem. Der Wechsel zu einem anderen mobilen Gerät ist daher extrem kostspielig. Humane und Rabbit verlangen von Ihnen, ein zusätzliches Gerät mit sich zu führen. Wenn dieses Gerät aber keine Taxen bestellen oder Zahlungen tätigen kann, müssen Sie am Ende immer noch das Smartphone herausnehmen. Und sobald Sie das Smartphone in die Hand nehmen, wird das andere Gerät zu einer Belastung.
Humane war später von Übernahmerumors umgeben, und die Begeisterung für das Rabbit R1 ist schnell gewichen. Die erste Welle der AI-Hardware im Jahr 2024 ist fast gänzlich gescheitert. Ein kleinerer Bildschirm und eine langsamere Reaktionszeit reichen nicht aus, um Menschen dazu zu bringen, für etwas zu zahlen, das man bereits auf dem Smartphone hat.
Statt das Smartphone zu ersetzen, neben ihm stehen
Die Geschichte der AI-Peripheriegeräte ist jedoch noch lange nicht vorbei. Zwischen 2025 und 2026 sind eine Reihe neuer Produkte auf den Markt gekommen. Bei diesen neuen Produkten wurde eine entscheidende Richtungsänderung vorgenommen: Statt versuchen, das Gerät in Ihrer Tasche zu ersetzen, versuchen sie, als ein neues Element auf dem Schreibtisch zu existieren.
LOOI ist das geschickteste Produkt in dieser Wende. Anfang 2025 hat es eine Crowdfunding-Kampagne auf Kickstarter gestartet, bei der 3.578 Personen teilgenommen und über 510.000 US-Dollar gespendet haben. LOOI hat selbst keinen Bildschirm. Seine Designidee ist einfach und direkt: Es lässt Sie Ihr Smartphone magnetisch anbringen.
So wird der Smartphone-Bildschirm zu seinem Gesicht, die Smartphone-Kamera zu seinen Augen und die ChatGPT-Funktion des Smartphones zu seinem Gehirn. LOOI bietet nur den "Körper", also ein mechanisches Gestell, das Kopfbewegungen ausführen, sich drehen und künstliche Gesichtsausdrücke machen kann.
Es wird nicht in die Tasche gesteckt, sondern auf den Tisch gelegt. Es ersetzt nicht das Smartphone, strebt keine Vollständigkeit der Funktionen an, sondern eine sofortige Interaktion. Es kostet 189 US-Dollar.
Obwohl es sich anhört wie ein hochwertiges Spielzeug oder eine Roboterhülle für das Smartphone, hat LOOI einen richtigen Schritt gemacht: Es versucht nicht, ein vollständiges AI-Gerät zu sein, sondern akzeptiert, dass das Smartphone das Rechenzentrum ist und es selbst nur dafür zuständig ist, der AI eine physische Präsenz zu geben.
Die AI auf Ihrem Smartphone kann bereits hören, sprechen und sehen. LOOI verleiht ihr noch die Fähigkeit, sich zu bewegen. Das menschliche Gehirn reagiert auf physische Bewegungen viel instinktiver als auf Bildschirmtexte. Ein einfacher Kopfbewegung genügt, um das Gefühl zu erwecken, dass das Gerät mit Ihnen interagiert.
Razer hat einen anderen Weg eingeschlagen. Auf der CES 2025 hat es das Prototyp von Project AVA vorgestellt, das als E-Sport-AI-Trainer konzipiert ist. Ein Jahr später, auf der CES 2026, hat AVA sich zu einem allgemeinen AI-Schreibtischbegleiter entwickelt. Und auf der GDC im März 2026 hat AVA zusätzlich die Fähigkeit erhalten, eigenständig Aufgaben zu planen und nicht nur auf Befehle zu reagieren.
Das auffälligste Merkmal von AVA ist seine Hardware-Form: Ein 5,5-Zoll-3D-Holographie-Bildschirm, der es Ihnen ermöglicht, eine dreidimensionale virtuelle Figur auf Ihrem Schreibtisch zu sehen, ohne VR-Brille zu benötigen. Zwei Fernfeld-Mikrofone, eine HD-Kamera und Umgebungslichtsensoren ermöglichen es AVA, Ihre Augen zu verfolgen, Ihre Gesichtsausdrücke zu lesen und sogar den Inhalt Ihres Computerbildschirms zu sehen.
Sie können zwischen verschiedenen virtuellen Figuren wählen: die effiziente AVA, die spielerische KIRA, die strategische ZANE, und sogar Figuren in Zusammenarbeit mit dem E-Sport-Profi Faker und Charakteren aus der SAO-Anime-Serie.
AVA ist derzeit zur Vorbestellung verfügbar, ein Rückzahlbarer Anzahlung von 20 US-Dollar ist erforderlich. Die Lieferung ist für das zweite Halbjahr 2026 geplant. Der Preis ist noch nicht bekannt, aber aufgrund der Positionierung von Razer wird er vermutlich nicht billig sein.
Wenn man sagt, dass LOOI die Idee verfolgt, "dem Smartphone einen Körper zu geben", verfolgt Razer die Idee, "der AI eine Gestalt zu geben". Das Ziel der Holographie ist nicht, Informationen anzuzeigen, sondern es Ihnen zu ermöglichen, das Gefühl zu haben, dass tatsächlich eine Figur auf Ihrem Schreibtisch steht. Außerdem profitiert es von der Popularität von Anime-Figuren. Die Akzeptanzschwelle für die Nutzer ist viel niedriger, wenn es sich um eine bekannte Anime-Figur handelt.
Die offizielle Beschreibung besagt, dass die Nutzer oft das Gefühl haben, dass "sie in der gleichen Raum ist", anstatt "hinter dem Bildschirm". Die 3D-Tiefe, die durch den gekrümmten Bildschirm simuliert wird, und die Echtzeit-Augenverfolgung, die die Perspektive der Figur anpasst, lassen die virtuelle Figur von Ami so aussehen, als würde sie tatsächlich Ihrem Blick folgen. Dadurch wird die neueste Technologie einem der ältesten Bedürfnisse dienen: etwas in der Nähe zu haben.
Eine Meldung von Mashable über die CES hat AVA so beschrieben: "The AI soulmate for the lonely remote worker", der AI-Seelenverwandte für den einsamen Homeoffice-Mitarbeiter - das klingt nach einem Produkt, das vor allem emotionale Werte bietet.
Eine andere Herangehensweise
Letzten Monat ist das "Kulminationswerk" auf diesem Weg erschienen: StackChan.
Im Vergleich zu den drei zuvor genannten Produkten sieht die technische Spezifikation von StackChan eher bescheiden aus: Eine 0,3-Megapixel-Kamera, ein 2-Zoll-Bildschirm, eine 550-mAh-Batterie und ein ESP32-S3-Chip. Keine Holographie, kein gekrümmter OLED-Bildschirm, keine Augenverfolgung. Es kostet ab 59 US-Dollar und wiegt 187 Gramm, so dass es in der Hand liegt.
Eine 0,3-Megapixel-Kamera in einem "Roboter"-Produkt im Jahr 2026 - das ist ziemlich gewagt.
Aber StackChan hat etwas getan, was keine der anderen Produkte getan hat: Es hat sich vollständig geöffnet. Das Firmware ist Open Source, die Hardware-Schnittstellen sind offen, und die Entwicklungswerkzeuge sind ebenfalls Open Source. Theoretisch können Sie mit Arduino-Code programmieren, um es alles Mögliche tun zu lassen, es an jedes AI-Modell anzuschließen und in jeder Sprache zu entwickeln.
Das Standard-Firmware beinhaltet bereits AI-Gespräche, Gesichtsausdruck-Animationen, ESP-NOW-Fernsteuerung, Videoanrufe über die Smartphone-App und das Herunterladen von Online-Anwendungen. Aber das ist nur der Anfang. Auf der Kickstarter-Seite von StackChan steht:
In an era filled with closed, concept-driven “AI robot” products, StackChan stands out with its open-source core.
Die Geschichte von StackChan ist ebenfalls einzigartig. Ursprünglich war es kein Produktkonzept eines Unternehmens, sondern ein persönliches Open-Source-Projekt des japanischen Entwicklers Masaya Ishikawa.
Die Community hat das Projekt über mehrere Jahre hinweg weiterentwickelt. Manche haben DIY-Sets erstellt, andere haben AI-Fähigkeiten hinzugefügt, und wieder andere haben verschiedene Gehäuse entworfen. M5Stack hat es schließlich produktiviert, aber das Open-Source- und Mitgestaltungsprinzip beibehalten. Auf Kickstarter haben 4.142 Personen unterstützt und etwa 3,6 Millionen Hong