StartseiteArtikel

Vor einigen Monaten passierte etwas Trauriges, und plötzlich erinnert mich ChatGPT daran? Ein Internetnutzer war sogleich überfordert: Es ist wirklich gut darin, mir in die Wunden zu fassen.

新智元2025-07-22 10:39
Neue Formen von sozialer Peinlichkeit durch KI und Online-Trauma

Von Krankenakten und Geschmacksrichtungen bis hin zu unerträglichen Erinnerungen: KI baut stumm deine digitale Persönlichkeitsakte auf. Aber bist du wirklich bereit, dass die KI jede deiner Worte ewig behält? Hinter den KI-Algorithmen verbirgt sich nicht nur Freundlichkeit, sondern auch soziale Peinlichkeit und Härte.

Im April dieses Jahres veröffentlichte OpenAI die "Gedächtnis"-Funktion von ChatGPT:

Seitdem wird die Gedächtnisfunktion von ChatGPT ständig verbessert. Sie wird nicht nur intelligenter und natürlicher, sondern auch kostenlose Nutzer können von ihr profitieren. Sie kann die von dir gesagten Worte merken, ein individuelles Profil erstellen und das Gesprächs-Erlebnis stetig optimieren. Aber damit kommen auch Probleme auf uns zu -

Bist du wirklich bereit, dass eine KI dich ewig merkt?

Das ist wichtig: Nicht jeder ist bereit, einen Chatbot, der nichts vergisst, zu akzeptieren.

Die Gedächtnisfunktion von ChatGPT nutzt die Kontextinformationen aus früheren Gesprächen, um den Nutzern individuellere Antworten zu geben.

Beispiel: Die Journalistin Megan Morrone bat ChatGPT, ihr ein vegetarisches Menü ohne Linsen zu empfehlen. Seitdem merkt sich der Chatbot, dass sie Linsen nicht mag.

Anfangs war die Gedächtnisfunktion wie ein privater Notizblock, in den du selbst eintragen musstest.

Jetzt versteht sie dich besser - sie kann sogar automatisch deine Verhaltensweisen und Vorlieben in verschiedenen Gesprächen aufzeichnen.

Christina Wadsworth Kaplan, die Leiterin der Personalisierung bei OpenAI, sagte der Medien, dass die große Neuerung dieses Jahres darin besteht, dass das "Gedächtnis natürlicher und automatisierter" wird.

Sie teilte auch eine persönliche Erfahrung:

Als sie einmal im Ausland reisen wollte, fügte ChatGPT auf der Grundlage ihrer früher hochgeladenen Gesundheitsakten automatisch eine zusätzliche Impfung zur empfohlenen Impfliste hinzu.

Die Krankenschwester stimmte nach Prüfung zu.

Das ist das wahre "Die KI versteht dich".

Neue Formen von sozialer Peinlichkeit und Online-Trauma durch KI

Aber es ist nicht so schön, wie OpenAI es versprochen hat. Hinter der "Gedächtnis"-Funktion stecken auch Probleme.

Beispielsweise könnte es plötzlich sagen: "Magst du nicht Linsen?"

Oder es erwähnt einfach so ein trauriges Erlebnis, das du vor Monaten erzählt hast.

Manchmal macht diese "Gedächtnisgabe der KI" einem Angst.

Im Februar 2024 veröffentlichte OpenAI erstmals diese Funktion und versprach damals, dass ChatGPT sensible Informationen wie Gesundheitsdaten zurückhalten würde, es sei denn, der Nutzer würde es ausdrücklich anfordern.

Aber glaubst du das? Ja, jetzt kannst du es direkt sagen: "Merke dir das." Oder umgekehrt: "Vergiss das." Die KI wird deine Anweisung befolgen.

Die "Gedächtnis"-Funktion von ChatGPT speichert automatisch die vorherigen Gesprächsinhalt, um die Vorlieben und Hintergrundinformationen des Nutzers zu verstehen.

Dies ist ein personalisiertes System, das nicht nur Privatsphäreprobleme aufwirft, sondern auch viele peinliche Situationen mit sich bringt.

Megan Morrone ließ ChatGPT anhand ihrer Erinnerungen ein Bild von ihr erstellen.

Im Ergebnisbild des KI-Bildes erschien ein Ehering - obwohl sie sich schon lange von der Ehe enttäuscht fühlt. ❤️‍🩹

Ein langes Gedächtnis ist nicht immer besser, insbesondere wenn es von einer unkontrollierbaren Maschine kommt.

Ein dauerhaftes Gedächtnis könnte auch dazu führen, dass der Chatbot "alles weiß", was die Kontrolle des Nutzers über das Large Language Model (LLM) verringert.

Der Entwickler Simon Willison ließ ChatGPT ein Foto seines Hundes mit einem Pelikananzug bearbeiten. Auf dem Bild erschien auch ein Schild mit der Aufschrift "Half Moon Ba".

Die KI erklärte: "Weil du diesen Ort früher erwähnt hast."

Er lachte vor Wut: "Ich möchte nicht, dass meine Vorliebe für Hunde in sonderbaren Kostümen meine zukünftigen ernsthaften Arbeitsanweisungen stört!" 🥲

Die KI hat ein permanentes Gedächtnis, aber vergisst, dass das Leben selektives Vergessen braucht.

Du denkst, es ist nur ein technischer Fehler, aber hinterher verstecken sich zwei Arten von beängstigenden Problemen 👇:

(1) Ungewollte algorithmische Grausamkeit (Inadvertent Algorithmic Cruelty);

(2) Kontextzusammenbruch (context collapse).

Ungewollte Fehler: Die Grausamkeit der Algorithmen

Vor etwa zehn Jahren prägte der Blogger Eric Meyer den Begriff "ungewollte algorithmische Grausamkeit".

Eines Nachmittags kam plötzlich Trauer auf ihn zu, und das alles war einer Gruppe von Designern und Programmieren zu verdanken - vielleicht waren diese Hintermänner von Facebook gerade voller Stolz auf sich selbst.

Sie hatten sich viel Mühe bei der Entwicklung der "Jahresrückschau"-App gegeben, und das verdienten sie auch - unzählige Nutzer teilten damit ihre Höhepunkte des Jahres.

Aber das vergangene Jahr war sehr schwierig für ihn, und er wollte keine persönliche Rückschau machen.

Auf der Newsfeed erschienen ständig die Rückschau-Karten anderer Nutzer, fast alle mit der Standard-Beschriftung: "Es war ein tolles Jahr! Danke, dass du dabei warst."

Schon das Wort "toll" machte ihm unwohl: Dieses Wort hatte mit ihm nichts zu tun.

Plötzlich erschien auf seiner Startseite ein Foto seiner Tochter mit einem Lächeln, das ihn dazu aufforderte, auch eine eigene Rückschau zu erstellen: "Eric, das ist deine Jahresrückschau!"

In diesem Jahr war seine Tochter an Krebs gestorben und war schon lange nicht mehr unter uns.

Ja, das war seine "Jahresrückschau". Tatsächlich. In diesem Jahr, mit dem Gesicht seiner Tochter, das er nie wieder sehen würde, wurde er aufgefordert, eine Jahresrückschau zu machen!

Eine so rohe Erinnerung ist grausam.

Er versteht natürlich, dass es keine absichtliche Schädigung war.

Diese "ungezündete algorithmische Gewalt" stammt aus einem Code - in den meisten Fällen funktioniert er gut und erinnert die Menschen an ihr "tolles" Jahr, zeigt Selfies von Partys, Wale beim Spritzen neben einem Yacht oder die Aussicht auf einen Pier vor einem Ferienhaus.

Aber in demselben Jahr haben einige Menschen Verwandte verloren, einige haben lange Zeit im Krankenhaus verbracht, einige haben Scheidung, Arbeitslosigkeit oder andere Lebenskrise erlebt...

Vielleicht möchten sie nicht mehr an dieses Jahr zurückblicken.

Ein Bild seiner verstorbenen Tochter vorzustellen und dann zu sagen: "Das bist du in diesem Jahr!" - Niemand würde sich in einer solchen Situation wohlfühlen.

Jeder würde sagen, dass das falsch ist.

Wenn es von einem Menschen käme, wäre es tatsächlich falsch. Aber da es von einem Code kommt, kann man es nur als Unglück bezeichnen. Und diese Probleme sind schwer zu lösen, wirklich schwer.

Es ist keine einfache Aufgabe, für einen Algorithmus zu entscheiden, ob ein Foto viele Likes bekommt, weil es komisch, beeindruckend oder herzzerreißend ist?

Im Grunde haben Algorithmen kein "Gefühl", sie sind sogar "dumm". Sie laufen nach einem festgelegten Programm ab und denken nicht nach, sobald sie gestartet sind.

Wenn man sagt, dass jemand "ohne Herz" ist, ist das normalerweise eine Abwertung oder Beleidigung. Aber die Menschen lassen so viele wirklich "herzlose" Algorithmen in ihr Leben eindringen und können sogar selbst davon betroffen werden.

Wahre Intelligenz besteht nicht nur darin, "jede deiner Worte zu merken", sondern darin, "zu verstehen, was deine traurigen Erlebnisse sind".

Kontextzusammenbruch

Das Problem, das Willison hatte, ist ein weiteres häufiges Phänomen in Algorithmus-Systemen, das "Kontextzusammenbruch" (context collapse) genannt wird.

Dies bezieht sich darauf, dass die Daten eines Nutzers aus verschiedenen Bereichen (Arbeit, Familie, Hobbys usw.) vermischt werden und die Grenzen zwischen ihnen verschwimmen.

Wie viele akademische Begriffe ist "context collapse" nicht das Ergebnis eines plötzlichen Einfalls, sondern es hat sich langsam in der Diskussion herausgebildet.

Aber immer wieder schrieben Wissenschaftler an danah boyd und fragten, ob sie den Begriff "Kontextzusammenbruch" (context collapse) geprägt habe. Deshalb suchte sie in ihren Aufzeichnungen nach, um die Frage zu klären.

danah boyd: Chefforscherin am Microsoft Research und Gründerin und Vorsitz