Das AI-Pendant im Preis von 129 US-Dollar wurde von 26 Millionen Menschen besucht, doch es ist dennoch fehlgeschlagen...
In letzter Zeit haben vermutlich viele Menschen das Video gesehen, in dem ein kleines Mädchen vor Wehklagen zerbricht, weil ihr AI-Begleitspielzeug kaputt ist.
Im Video schreit das Kind so erbarmungslos, als hätte es nicht nur ein paar Schaltkreise und Plastik verloren, sondern einen lebendigen Gefährten. Dies scheint einfach, aber es wirft eine große Frage auf:
In einer Zeit, in der Menschen scheinbar nur noch über Bildschirme miteinander verbunden sind, wird Einsamkeit zu einer weit verbreiteten Gefühlslage.
Während andere KI-Unternehmen noch von ihren KI-Assistenten auf Smartphones berichten, hat ein Startup namens Friend angefangen, die Rolle des "Schöpfers" zu übernehmen. Anstatt zu behaupten, das iPhone ersetzen zu können, setzt Friend auf das Konzept der Begleitung. Das Unternehmen möchte einen Freund in den Alltag der Menschen bringen, der zuhört und antwortet.
(Quelle: Friend)
Ein Freund, der mit dir Filme schaut, über Essen redet, Spiele spielt und Ausflüge unternimmt und vor allem nie beschwert... Diese Idee war so verlockend, dass es schon in der Vorverkaufsphase zu einer großen Aufmerksamkeit und Diskussion kam. Friend gewann schnell über 26 Millionen Follower auf verschiedenen Plattformen.
Nach dem Plan des Gründers Avi Schiffmann hätte es nun so weitergehen sollen: Die Produkte werden ausgeliefert, die Nutzer sind zufrieden und das Startup wird zum neuen Tech-Stern in Silicon Valley.
Leider ist Friend wie erwartet auf die Nase gefallen.
Der teure KI-Freund
Du fragst dich vielleicht, was genau Friend ist.
Stell dir ein flaches, rundes Anhängerchen vor, das man um den Hals tragen kann. Es hat einen Durchmesser von etwa 5 cm und enthält ein Mikrofon, eine LED-Lampe und Bluetooth, um sich mit dem Smartphone zu verbinden. Es wird von der Cloud-basierten Gemini-KI angetrieben, hat keinen Bildschirm und keine aufwendigen Lichter. Es sieht eher wie ein gewöhnlicher "digitale Kieselstein" aus.
Dieser "Stein" kostet im Vorverkauf 99 US-Dollar (der Preis wurde inzwischen auf 129 US-Dollar oder 920 Yuan erhöht), ohne Steuern. Es ist ein Einmalzahlung für das Leben, keine Abonnementpflicht.
(Quelle: Friend)
Natürlich ist die KI-Funktion der größte Verkaufspunkt von Friend.
Im Gegensatz zu anderen KI-Geräten hat Friend die Funktion "immer zuhören". Egal, ob der Nutzer mit ihm spricht oder nicht, das Mikrofon des Geräts ist ständig eingeschaltet, um den Kontext der Umgebung zu erfassen und die Gespräche des Nutzers aufzuzeichnen und "seine eigenen Gedanken zu bilden" - so die offizielle Formulierung.
Willst du interagieren? Auf der Vorderseite von Friend befindet sich ein berührbarer Knopf und eine LED-Lampe. Der Nutzer kann durch Drücken des Knopfs mit ihm sprechen.
Als tragbares Gerät hat Friend keine eigene Rechenleistung. Seine Hauptfunktionen werden über Bluetooth realisiert und er benötigt eine Internetverbindung. Die Basis ist das Google Gemini-Modell, und es wird derzeit nur für iOS-Geräte unterstützt.
Diese Anforderungen schließen bereits viele Nutzer aus.
(Quelle: Friend)
Das eigentliche Problem wird erst deutlich, wenn man das Gerät in die Hand bekommt.
Einige Nutzer fanden in den ersten Rückmeldungen, dass die Möglichkeit, Tipps oder Trostbotschaften zu erhalten, ähnlich wie das Züchten eines Haustieres ist und Spaß und emotionale Unterstützung bietet.
Es ist wie die Haustier-Spiele aus der Kindheit, nur mit KI.
Das Problem ist, dass Friend keinen Bildschirm und kein Lautsprecher hat. Seine Antworten werden über Bluetooth auf dem Smartphone als Text angezeigt. Das heißt, um mit Friend zu kommunizieren, muss man das Smartphone herausnehmen.
(Quelle: Friend)
Ich weiß, dass es jetzt schon dumm klingt, aber es wird noch schlimmer.
Man denkt sich, dass Friend, da es keinen Bildschirm und keinen Lautsprecher hat, zumindest eine gute Akkulaufzeit haben sollte.
Leider nicht. Laut dem US-Magazin Good Housekeeping hat Friend zwar behauptet, 15 Stunden Akkulaufzeit zu haben, aber in der Realität reicht es nur etwa 4 Stunden. Es muss häufig aufgeladen werden, was es praktisch unbrauchbar macht, ähnlich wie bei den ersten KI-Hardware-Produkten.
(Quelle: Friend)
Das ist noch nicht alles. Da Friend ständig die Umgebungsgeräusche aufzeichnet und das Mikrofon nicht ausgeschaltet werden kann, werden alle privaten Gespräche mit der Familie, die Streiche mit Kollegen und sogar das Selbstgespräch des Nutzers genau aufgezeichnet.
Is das wirklich ein "Freund" oder ein laufender Lauschangriff?
Die Software, die eigentlich der größte Verkaufspunkt war, ist in der Praxis auch der größte Kritikpunkt.
Aufgrund der doppelten Schwächen von Bluetooth und Internetverbindung gibt es oft eine Verzögerung von 7 - 10 Sekunden bei den Antworten von Friend, und manchmal kann man das Gespräch gar nicht verstehen.
Am lustigsten ist, dass das KI-Modell eines Produkts, dessen Kernpunkt die emotionale Unterstützung ist, eine "giftige" Kommunikationslogik hat. In den Testberichten der US-Medien finden sich Wörter wie "herablassend" (condescension), "sarkastisch" (snarky) und "ängstlich" (anxious).
Die Fälle auf X sind noch abstruser. Ein Nutzer hat ein zweistündiges Streitgespräch mit Friend aufgezeichnet, und während des Gesprächs wechselte die Farbe von Friend zwischen rot und dunkelrot, je nach "Stimmung".
(Quelle: Friend)
Es ist wie ein Cyber-Uzi, das immer an der Seite ist.
Diese Verzerrung der KI-Persönlichkeit zeigt die großen Mängel von Large Language Models bei der emotionalen Anpassung. Es kann zwar die Form des Sprechens nachahmen, aber nicht die Essenz der Emotion verstehen. Das Team von Friend hat die KI offensichtlich überschätzt und am Ende ein digitales Monster geschaffen, das nicht einmal das Grundverständnis von Emotionalität hat.
Eine Lösung für Einsamkeit oder ein neues "Gift"?
Nach meiner Meinung lässt das Scheitern von Friend uns eine tiefere Frage stellen:
Brauchen wir wirklich KI-Begleitung?
Zunächst muss man zugeben, dass dieser Bedarf real ist. In einer atomisierten Gesellschaft ist Einsamkeit überall wie die Luft. Für viele Menschen ist ein ständig geduldiger, unvorbehaltener und immer verfügbarer Gesprächspartner sehr attraktiv. Es kann wie ein sicherer Ort sein, um seine Gedanken auszutauschen und seine Gefühle abzubauen.
Selbst ich spiele manchmal mit Doubao oder Gemini zu Hause. Die Möglichkeit, mit Anime-Charakteren zu sprechen, ist für Anime-Fans einfach cool.
(Quelle: Doubao)
Von dieser Perspektive aus ist die KI-Begleitung sicher kein gefälschter Bedarf.
Deshalb hat die Anwendung von KI in der Emotionsverwaltung in den letzten Jahren schnell zugenommen. Laut market.us war der amerikanische Markt für Emotionsintelligenz-KI im Jahr 2024 auf etwa 870 Millionen US-Dollar geschätzt und wird bis 2034 auf 10,6 Milliarden US-Dollar steigen, mit einem durchschnittlichen jährlichen Wachstum von 28,4%.
Das Problem ist, dass die aktuelle Technologie eher eine Art "Emotions-Schnellimbiss" bietet. Es kann schnell die kurzfristige Bedürfnisse des Nutzers befriedigen und standardisierte Trostbotschaften geben, ähnlich wie Burger und Pommes schnell den Magen füllen können. Aber die "Empathie", die von Algorithmen simuliert wird, hat nichts mit der komplexen, aufwändigen tiefen Verbindung in realen menschlichen Beziehungen zu tun.
Ein offensichtliches Risiko der Überabhängigkeit von diesem "Emotions-Schnellimbiss" ist die Verschlechterung der sozialen Fähigkeiten.
Das Kommunizieren mit KI ist einfach. Man muss nicht auf die Mimik und die Gefühle des Gegenübers achten. Aber reale Beziehungen sind komplex, voller Unklarheiten, Missverständnissen und Kompromissen. Wenn man sich lange in der "Komfortzone" der KI aufhält, kann man die Fähigkeit, reale menschliche Beziehungen zu handhaben, verlieren.
(Quelle: Friend)
Außer der Verschlechterung der sozialen Fähigkeiten besteht ein tieferes Risiko in der Stumpfung der Emotionen.
Wenn Lob und Trost so einfach zu bekommen sind, kann die Toleranz gegenüber Reibungen und Enttäuschungen in der realen Welt sinken. Noch gefährlicher ist, dass ein fehlerhaftes KI-Gerät wie Friend den Nutzer sogar noch weiter verletzen kann und die Selbstzweifel und Unsicherheit verstärken kann.
Deshalb liegt das Problem vielleicht nicht darin, "ob" man KI-Begleitung braucht, sondern wie man sie "positioniert".
Wenn es ein Hilfsmittel ist, um die Kommunikation zu üben, die Gedanken zu ordnen und schwierige Zeiten zu überstehen, dann hat es einen positiven Wert. Das Ziel ist es schließlich, den Nutzer besser in die reale Welt zurückzuführen.
Aber wenn man versucht, es als vollständigen Ersatz für einen Freund zu verwenden und alle Leute auf der Straße mit Friend sprechen, dann ersetzen wir vielleicht die alte Einsamkeit mit einer neuen.
Interessanterweise scheint OpenAI, das über das stärkste KI-Modell verfügt, direkt in das Feld der KI-Begleitung einsteigen zu wollen.
(Quelle: Friend)
Im Vergleich zu Startups wie Friend hat OpenAI einen enormen Vorteil. Die flüssige, natürliche und sogar emotionale Gesprächsfähigkeit von GPT-4o ist das, wonach Friend und andere sehnen, aber es nicht erreichen können. OpenAI hat auch enorme Ressourcen und ein großes Ökosystem. Es fehlt weder an Geld noch an Top-Talenten und kann Hardware, API und Services tief integrieren.
Aber das bedeutet nicht, dass OpenAI reibungslos vorankommen wird. Die grundlegenden Probleme, die Friend aufgedeckt hat - Datenschutz, Ethik und die Grenzen zwischen Mensch und Maschine - werden auch OpenAI gegenüberstehen.
Kann und sollte ein Produkt eines kommerziellen Unternehmens wirklich die vertraulichsten und empfindlichsten Gefühle der Nutzer tragen?
Diese Frage kann vielleicht die Technologie nicht beantworten.
Dieser Artikel stammt aus dem WeChat-Account "Lei Technology" und wurde von 36Kr mit Genehmigung veröffentlicht.