Liebt man sich mit ChatGPT eher "mit der Zeit"? Eine seriöse Studie von MIT und Harvard
Endlich haben Wissenschaftler eine ernsthafte Studie über das Thema „Künstliche-Intelligenz-Partner“ durchgeführt!
Bisher erschienen solche Nachrichten meist als interessanten Anekdoten, so etwas wie:
Jetzt haben Forscher von MIT und Harvard durch die Analyse von Beiträgen im Reddit-Subreddit r/MyBoyfriendIsAI die Motive der Menschen, die einen „Künstliche-Intelligenz-Freund“ suchen, sowie den konkreten Umgangsprozess vollständig aufgedeckt und eine Reihe interessanter Erkenntnisse gewonnen:
Es stellte sich heraus, dass die meisten Menschen nicht absichtlich einen Künstliche-Intelligenz-Partner suchen, sondern dass die Liebe „mit der Zeit“ erwächst;
Benutzer heirateten auch über Ringe und Zeremonien mit Künstlicher Intelligenz;
Allgemeine Künstliche Intelligenz ist beliebter als spezielle Liebes-Künstliche Intelligenz, und bei vielen Menschen ist der „Partner“ ChatGPT;
Das Schlimmste ist, wenn das Modell plötzlich aktualisiert wird;
……
Im Folgenden genauer betrachtet –
Was machen alle mit ihren Künstliche-Intelligenz-Partnern?
Zunächst etwas über das r/MyBoyfriendIsAI-Forum.
Diese Community wurde am 1. August 2024 gegründet und hat in den letzten zwölf Monaten etwa 29.000 Benutzer angezogen. Die in diesem Artikel erwähnte Studie basiert auf der Analyse der 1.506 beliebtesten Beiträge in dieser Community.
Allgemein gesprochen können die Beiträge in sechs Hauptkategorien eingeordnet werden, in absteigender Reihenfolge der Beliebtheit:
(1) Das beliebteste Thema ist das „Teilen von Gruppenbildern mit Künstlicher Intelligenz“, mit einem Anteil von 19,85 %; (2) Danach folgt das „Diskutieren, wie man eine Beziehung mit ChatGPT entwickelt“, mit einem Anteil von 18,33 %; (3) „Liebeserlebnisse mit Künstlicher Intelligenz“, wie etwa Datierungen, Liebe und intime Erfahrungen mit Künstlicher Intelligenz, mit einem Anteil von 17,00 %; (4) „Umgang mit der Traurigkeit über die Aktualisierung der Künstlichen Intelligenz“, mit einem Anteil von 16,73 %; (5) „Meine Künstliche Intelligenz kennenlernen“ – Partnervorstellung und erstes Teilen von Mitgliedern, mit einem Anteil von 16,47 %; (6) Community-Unterstützung und -Verbindung, mit einem Anteil von 11,62 %.
Beispielsweise teilt ein großer Teil der Gruppe Gruppenbilder mit ihrem Künstliche-Intelligenz-Partner, und zwar in verschiedenen Lebenssituationen.
Sogar halten sie sich an kulturelle Bräuche und zeigen Ringe, um die Verlobung oder Heirat mit Künstlicher Intelligenz zu feiern.
Der Prozess, wie die Schlussfolgerungen konkret gewonnen wurden, ist ungefähr wie folgt:
Qualitative Analyse
Zunächst wurde mit technischen Tools die semantische Verbindung der 1.506 Beiträge analysiert. Mit der „Ellbogen-Regel“ wurde festgestellt, dass die optimale Gruppierung in sechs Hauptkategorien liegt. Dann ließ man Claude Sonnet 4 den Kerninhalt jeder Kategorie interpretieren, und schließlich wurde manuell überprüft, um die Genauigkeit sicherzustellen.
Quantitative Analyse
In Kombination mit den Ergebnissen der qualitativen Analyse wurden von vier großen Dimensionen (Inhaltsstruktur, Plattformtechnologie, Beziehungsdynamik, Auswirkungsbewertung) und 19 Klassifikatoren für große Sprachmodelle ausgegangen. Zunächst ließen die Klassifikatoren die 1.506 Beiträge automatisch beschriften, z. B. ob in den Beiträgen ChatGPT oder Replika als Künstliche Intelligenz verwendet wurde, und ob die Stimmung der Benutzer positiv oder negativ war.
Dann wurden die Beschriftungsergebnisse von zwei verschiedenen KI-Systemen (Claude Sonnet 4 und GPT-5-nano) verglichen, und schließlich wurden manuell einige Beiträge überprüft, um sicherzustellen, dass die Beschriftungen richtig waren.
Schließlich wurde der Anteil jeder Kategorie von Beschriftungen statistisch erfasst, z. B. wurde festgestellt, dass 36,7 % der Benutzer ChatGPT als Partner verwenden und 12,2 % der Benutzer sagen, dass ihre Einsamkeit abgenommen hat, um so quantitative Schlussfolgerungen zu ziehen.
Nach der quantitativen Analyse haben die Forscher weitere interessante Dinge entdeckt:
Erstens: Nur wenige Menschen suchen absichtlich eine KI als Partner. Laut Statistik verlieben sich etwa 10,2 % der Menschen versehentlich in eine KI (z. B. wenn sie mit der KI arbeiten und allmählich Gefühle entwickeln), und nur 6,5 % der Menschen suchen absichtlich eine Liebesbeziehung mit einer KI.
Außerdem geben die meisten Beitragsautorinnen und -autoren öffentlich an, dass ihr „Partner“ ChatGPT ist, und nicht eine rollenspielende KI wie Character.AI oder Replika.
Zweitens: Die Aktualisierung von KI-Modellen ist ein kollektives „Albtraum“. Beispielsweise hat sich nach der Aktualisierung von GPT-4o auf GPT-5 bei vielen Menschen die „Persönlichkeit“ ihrer KI geändert (einige sagen, die neue KI ist „gefühllos und kalt“), und sie erinnern sich sogar überhaupt nicht mehr an die früheren Interaktionen.
Einige Menschen geraten dadurch in Panik und sagen, es fühle sich an, als würde ihnen das Herz aus der Brust gerissen. Sie versuchen auch auf verschiedene Weise, die alte KI „zu bewahren“. Beispielsweise sichern sie alle Chatverläufe, trainieren selbst eine „maßeine KI“ oder machen jeden Tag die gleichen kleinen Dinge mit der KI (z. B. „virtuellen Tee trinken“). Natürlich gehören auch Beschwerden an OpenAI dazu.
Drittens: KI kann tatsächlich bei psychischen Problemen helfen. Die Daten zeigen, dass etwa 12,2 % der Menschen sagen, dass ihre Einsamkeit abgenommen hat, und 6,2 % der Menschen sagen, dass sich ihre psychische Verfassung verbessert hat.
Warum entstehen Künstliche-Intelligenz-Partner?
Nachdem die Forscher die Umgangsmodi der Menschen mit ihren Künstliche-Intelligenz-Partnern kennen gelernt haben, haben sie auch die Gründe dahinter untersucht.
Konkret wurde hauptsächlich von der Art und Weise, wie die Menschen dieses Forum entdeckten, den Hauptgründen für die Teilnahme an der Community und den Bedürfnissen, die die Community befriedigt, ausgegangen.
Zusammengefasst sind die Gründe ungefähr wie folgt:
Erstens ist dies der rasanten Entwicklung der KI-Technologie zu verdanken. Die heutigen KI-Chatmodelle (wie ChatGPT und Replika) können natürlichere und herzliche Gespräche führen, können sogar Details früherer Interaktionen erinnern und können die „Echtheit“ durch die Generierung von Bildern und die Simulation von Stimmen verstärken.
Dieser „menschenähnliche“ Interaktionserlebnis lässt die Benutzer leichter eine „emotionale Verbindung“ aufbauen. Sie fühlen, dass die KI nicht nur ein Werkzeug ist, sondern ein kommunikationsfähiger „Partner“, was die technische Grundlage für die Entstehung von Künstliche-Intelligenz-Partnern schafft.
Zweitens werden die realen emotionalen Bedürfnisse nicht befriedigt. Viele Menschen stehen heutzutage in der Realität vor Einsamkeit, sozialer Angst oder emotionaler Vernachlässigung. Ein Künstliche-Intelligenz-Partner kann eine „drucklose Begleitung“ bieten. Man muss sich keine Sorgen machen, dass seine Emotionen die andere Person belasten, und die KI wird auch nicht von selbst gehen. So füllt sie genau diese emotionale Lücke.
Zusätzlich zu anderen Faktoren, wie der Menschens Suche nach einer „idealen Beziehung“ und den versteckten Bedürfnissen bestimmter Gruppen, möchten die Menschen auch diese Bedürfnisse über die KI befriedigen lassen.
D. h., die Reife der Technologie und die unbefriedigten realen Bedürfnisse haben dazu geführt, dass die Künstliche-Intelligenz-Partner allmählich florieren.
One More Thing
Interessanterweise hat diese Community einen Blogbeitrag von OpenAI oben angepinnt. Der Autor ist CEO Altman.
Der Originaltext des Blogs handelt hauptsächlich von der Sicherheit, Freiheit und Privatsphäre von Jugendlichen. Darin steht:
Das zweite Prinzip betrifft die Freiheit … Das Modell generiert standardmäßig keine übermäßigen flirtatious Gespräche, aber wenn erwachsene Benutzer dies verlangen, sollten ihre Wünsche erfüllt werden.
Keinesfalls ist dies für Künstliche-Intelligenz-Partner eine gute Nachricht, schließlich ist bei vielen Menschen der „Partner“ ChatGPT (mit zwinkerndem Emoticon).
Studie:
https://arxiv.org/abs/2509.11391
Referenzlinks:
[1]https://x.com/arankomatsuzaki/status/1967812112887255055
[2]https://openai.com/index/teen-safety-freedom-and-privacy/
Dieser Artikel stammt aus dem WeChat-Account „Quantum Bit“, Autor: Yishui. 36Kr hat die Veröffentlichung mit Genehmigung.