Warum ist der "AI-Desktop-Pet" mit nur 300.000 Pixeln so ein Riesenverkaufserfolg?
Zurück in das Jahr 2024 waren die beiden aufregendsten Produktvorstellungen im Tech-Sektor von Humane und Rabbit: Das eine Unternehmen hat ein AI-Badge entwickelt, das man an der Brust befestigen kann, das andere ein kleines AI-Quadrat, das man in die Tasche stecken kann. Die Produkte dieser beiden Unternehmen haben für eine gewisse Aufregung und Fantasie gesorgt: Die Stunde der AI-Hardware scheint bald an der Zeit zu sein.
Die Geschichte hat sich jedoch schnell gedreht. Der Humane AI Pin kostet 699 US-Dollar, dazu monatlich 24 US-Dollar Abonnementgebühr. Er hat keinen Bildschirm und projiziert Informationen per Laser auf die Handfläche. Eine Testbericht von WIRED hat das Produkt mit einem Wort beschrieben: katastrophal.
Der Rabbit R1 ist viel günstiger, er kostet 199 US-Dollar und hat einen kleinen 2,88-Zoll-Bildschirm. Sein Schwerpunkt liegt auf einem "großen Aktionsmodell", das Ihnen hilft, Apps auf Ihrem Smartphone zu bedienen. Die Tester haben jedoch festgestellt, dass man immer wieder das Smartphone aus der Tasche holen muss, um die Aufgabe abzuschließen.
Beide Produkte haben den gleichen Fehler gemacht: Sie versuchen, das Smartphone zu ersetzen. Aber das Smartphone ist nicht nur ein Gerät, sondern der Behälter für Ihr gesamtes digitales Leben: Ihre WeChat-Chats, Ihre Bank-Apps, alle Eingänge für Lieferdienste, Taxen und Barzahlungen befinden sich darin.
Die über Jahrzehnte aufgebauten App-Ökosysteme, kombiniert mit Benutzerpräferenzen und gespeicherten Passwörtern, bilden ein äußerst komplettes und persönliches Betriebssystem. Der Umstieg auf ein anderes mobiles Gerät ist daher extrem kostspielig. Humane und Rabbit verlangen, dass Sie ein zusätzliches Gerät bei sich tragen. Wenn dieses Gerät aber keine Fahrten buchen oder Zahlungen tätigen kann, müssen Sie schließlich wieder das Smartphone aus der Tasche holen. Und sobald Sie das Smartphone nutzen, wird das andere Gerät zu einer Belastung.
Humane war später von Übernahmeberichten umgeben, und die Popularität des Rabbit R1 ist schnell geflaut. Die erste Welle der AI-Hardware im Jahr 2024 ist fast gänzlich gescheitert. Ein kleinerer Bildschirm und eine langsamere Reaktionsgeschwindigkeit reichen nicht aus, um die gleichen Funktionen wie auf einem Smartphone zu bieten. Niemand wird dafür zahlen.
Kein Ersatz für das Smartphone, sondern ein Begleiter
Die Geschichte der AI-Zubehörgeräte ist jedoch noch lange nicht vorbei. Zwischen 2025 und 2026 sind eine Reihe neuer Produkte auf den Markt gekommen. Bei diesen neuen Produkten wurde ein wichtiger Kurswechsel vorgenommen: Sie versuchen nicht mehr, das Gerät in Ihrer Tasche zu ersetzen, sondern wollen stattdessen ein neues Element auf Ihrem Schreibtisch werden.
LOOI ist das geschickteste Produkt in dieser Richtung. Anfang 2025 hat es auf Kickstarter eine Crowdfunding-Kampagne gestartet und von 3.578 Unterstützern über 510.000 US-Dollar gesammelt. LOOI hat selbst keinen Bildschirm. Seine Designidee ist einfach: Es magnetisiert Ihr Smartphone an sich.
So wird der Smartphone-Bildschirm zu seinem Gesicht, die Kamera zu seinen Augen und die ChatGPT-Funktion zu seinem Gehirn. LOOI bietet nur den "Körper", nämlich ein mechanisches Gestell, das Kopfbewegungen ausführen und künstliche Gesichtsausdrücke machen kann. Es kostet 189 US-Dollar, wird nicht in die Tasche gesteckt, sondern auf den Tisch gelegt. Es ersetzt nicht das Smartphone, sondern strebt stattdessen eine sofortige Interaktion an.
Obwohl LOOI wie ein hochwertiges Spielzeug oder eine Roboterhülle für das Smartphone klingt, hat es einen wichtigen Aspekt richtig verstanden: Es versucht nicht, ein vollständiges AI-Gerät zu sein, sondern akzeptiert, dass das Smartphone das Rechenzentrum ist und es selbst nur dafür zuständig ist, der KI eine physische Präsenz zu geben.
Die KI auf Ihrem Smartphone kann bereits hören, sprechen und sehen. LOOI fügt hinzu: Bewegung. Das menschliche Gehirn reagiert stärker auf physische Bewegungen als auf Bildschirmtexte. Ein kleiner Kopfbewegung reicht bereits aus, um das Gefühl zu erzeugen, dass das Gerät mit Ihnen interagiert.
Razer hat einen anderen Ansatz gewählt. Auf der CES 2025 hat es den Prototyp von Project AVA vorgestellt, der als E-Sport-AI-Trainer konzipiert ist. Ein Jahr später, auf der CES 2026, hat sich AVA zu einem allgemeinen AI-Schreibtischbegleiter entwickelt. Im März 2026 auf der GDC hat AVA zusätzlich eine agentische Fähigkeit erhalten, die es ihm ermöglicht, nicht nur auf Befehle zu reagieren, sondern auch eigenständig mehrschrittige Aufgaben zu planen.
Der auffälligste Aspekt von AVA ist seine Hardware: Ein 5,5-Zoll-3D-Holografiedisplay, das es Ihnen ermöglicht, eine virtuelle Figur auf Ihrem Schreibtisch zu sehen, ohne VR-Brillen zu benötigen. Zwei Fernfeldmikrofone, eine HD-Kamera und Umgebungslichtsensoren ermöglichen es, Ihre Augen zu verfolgen, Ihre Gesichtsausdrücke zu lesen und sogar den Inhalt Ihres Computerbildschirms über die PC Vision-Modus zu erkennen.
Sie können zwischen verschiedenen virtuellen Figuren wählen: Die effiziente AVA, die spielerische KIRA, die strategische ZANE und sogar eine Figur in Zusammenarbeit mit dem E-Sport-Profi Faker sowie eine Figur aus der SAO-Anime-Serie.
AVA ist derzeit zur Voranmeldung verfügbar. Ein Kaution von 20 US-Dollar ist zurückzahlbar. Die Lieferung ist für das zweite Halbjahr 2026 geplant. Der Preis ist noch nicht bekannt, aber aufgrund der Positionierung von Razer wird er vermutlich nicht günstig sein.
Wenn man sagt, dass LOOI dem Smartphone einen Körper gibt, so gibt Razer der KI eine Gestalt. Das Ziel des Holografiedisplays ist nicht, Informationen anzuzeigen, sondern es soll Ihnen das Gefühl geben, dass tatsächlich eine Figur auf Ihrem Schreibtisch steht. Die Verwendung von Anime-Figuren hat sich bewährt, da die Benutzer bereits vertraut mit diesen Figuren sind und daher leichter bereit sind, sie zu akzeptieren.
Die Benutzer beschreiben häufig, dass sie das Gefühl haben, dass die Figur "im Raum" ist, und nicht "hinter dem Bildschirm". Die 3D-Tiefe des Kurvenschirms und die Echtzeit-Augenverfolgung sorgen dafür, dass die virtuelle Figur von Ami tatsächlich so aussieht, als würde sie Ihrem Blick folgen. Die neuesten Technologien dienen hier einem sehr alten Bedürfnis: Der Anwesenheit eines Begleiters.
Eine Meldung von Mashable über die CES hat AVA so beschrieben: "The AI soulmate for the lonely remote worker" – ein AI-Seelenverwandter für einsame Homeworker. Offensichtlich liegt hier der Schwerpunkt auf der emotionalen Unterstützung.
Ein anderer Lösungsansatz
Letzten Monat ist das "Kulminationswerk" auf diesem Weg erschienen: StackChan.
Im Vergleich zu den drei vorherigen Produkten wirkt die technische Spezifikation von StackChan eher bescheiden: Eine 0,3-Megapixel-Kamera, ein 2-Zoll-Bildschirm, eine 550-mAh-Batterie und ein ESP32-S3-Chip. Kein Holografiedisplay, kein Kurven-OLED und keine Augenverfolgung. Der Preis beginnt bei 59 US-Dollar, das Gerät wiegt 187 Gramm und passt in die Handfläche.
Eine 0,3-Megapixel-Kamera in einem "Roboter"-Produkt im Jahr 2026? Das scheint fast unglaublich.
Aber StackChan hat etwas getan, was keine der anderen Produkte getan hat: Es hat sich vollständig geöffnet. Das Firmware, die Hardware-Schnittstellen und die Entwicklungstools sind Open Source. Theoretisch können Sie mit Arduino-Code alles programmieren, jedes AI-Modell integrieren und in jeder Sprache entwickeln.
Das Standard-Firmware enthält bereits AI-Gespräche, Gesichtsausdruckanimationen, ESP-NOW-Fernsteuerung, Videoanrufe über die Smartphone-App und die Möglichkeit, Online-Apps herunterzuladen. Dies ist jedoch nur der Anfang. Auf der Kickstarter-Seite von StackChan steht:
In an era filled with closed, concept-driven “AI robot” products, StackChan stands out with its open-source core.
Die Geschichte von StackChan ist auch anders. Ursprünglich war es kein Produktkonzept eines Unternehmens, sondern ein persönliches Open-Source-Projekt des japanischen Entwicklers Shinya Ishikawa.
Die Community hat über mehrere Jahre hinweg daran gearbeitet. Einige haben DIY-Kits entwickelt, andere haben AI-Fähigkeiten hinzugefügt und wieder andere haben verschiedene Gehäuse entworfen. M5Stack hat es schließlich produktiviert, aber das Open-Source- und Mitgestaltungsprinzip beibehalten. Auf Kickstarter haben 4.142 Unterstützer über 3,6 Millionen Hongkong-Dollar gespendet – das ursprüngliche Ziel von 78.000 US-Dollar wurde damit um das 45-fache übertroffen.
Diese Zahlen zeigen, dass die Menschen nicht nur einen AI-Schreibtischroboter kaufen wollen, sondern einen, den sie selber modifizieren können.
Die Kameraauflösung von StackChan beträgt nur 0,3 Megapixel, aber das ist beabsichtigt. Es geht nicht darum, keine Hochauflösung zu können, sondern darum, dass es nicht benötigt wird. Eine niedrige Auflösung bedeutet, dass das lokale ML-Modell Videos mit einer nutzbaren Bildrate verarbeiten