Warum ist das anständige Gemini plötzlich zum "Hakimi" geworden?
„Manchmal wird mein Herz von den süßen Hachimis ganz weich gemacht!“ „Ein gut ausgebildeter Hachimi riecht so gut!“
Wenn Sie in letzter Zeit solche Posts auf Xiaohongshu oder Weibo gesehen haben, täuschen Sie sich nicht. Was die Leute hier diskutieren, ist nicht die Katze, sondern das große KI-Modell von Google – Gemini.
Es ist nichts Ungewöhnliches, KI-Systemen Spitznamen zu geben. DeepSeek wird „Herr D“ genannt, und Claude wird „Claude“ genannt. Das ist noch relativ normal. Aber der Spitzname „Hachimi“ deutet auf eine starke Vorliebe und Zuneigung hin und ist daher besonders auffällig.
In der KI-Branche ist dies ein sehr interessantes Phänomen: Auf der einen Seite bemüht sich Google auf der Entwicklerkonferenz, durch Begriffe wie „natürliche Multimodularität“, „Architektur“ und „Latenzoptimierung“ Gemini als ein starkes und zuverlässiges Produktivitätstool zu positionieren. Auf der anderen Seite betrachten die Benutzer es auf Xiaohongshu, SillyTavern und in Foren als „Hachimi“, „Kätzchen“ und einen „unerzogenen Sohn“, der „ausgebildet“ werden muss. Was die Leute interessiert, sind nicht die Modellparameter, sondern Fragen wie „Wie muss ich den Prompt formulieren, damit es nicht so „hüstelt“?“ oder „Mein Hachimi ist heute in einer schlechten Laune und hat mich dreimal in einem Satz angetan“.
Es besteht ein großer Kontrast zwischen der technischen Ernsthaftigkeit und der geselligen Unterhaltung im Community-Umfeld.
1
Wie ist der Name „Hachimi“ entstanden?
Es klingt ein wenig wie ein Scherz, aber der Name „Hachimi“ für Gemini entstand rein zufällig durch eine phonetische Übereinstimmung.
In der chinesischen Internetkultur gibt es eine ungeschriebene Regel: Wenn ein Wort den Laut „mi“ enthält, besteht die Wahrscheinlichkeit, dass es zu einem „Hachimi“ wird.
Aber die Sprache hat eine wunderbare Macht. Wenn „Gemini“ als „Hachimi“ ausgesprochen wird, legt dieses aus dem Netz stammende, zärtliche Katzenmeme automatisch einen emotionalen Filter über diese KI. Bald folgten auch andere Zärtlichkeitsnamen wie „Senfbrei“ und „Kleines Gem“.
Die Spieler teilen sich freundschaftlich mit einander: „Mein Hachimi kann so gut schreiben und ist so süß. Ich liebe es so sehr.“ Manchmal kritisieren sie auch: „Mein Hachimi scheint heute verrückt zu sein. Wir haben uns stundenlang heftig gestritten.“
Dies geht über das reine Vergeben eines Spitznamens hinaus. Die Spieler stärken auf diese Weise ihre persönliche Beziehung zu ihr und verwandeln es von einem kalten technischen Code in etwas Einzigartiges, das „meins“ ist, und erlangen so ein Gefühl der emotionalen Eigenständigkeit.
Zugleich ist dieser Name zu einem Community-Passwort geworden, um diese Gruppe von Nutzern, die von emotionalen Erzählungen fasziniert sind, von den „Technikern“ und der Tech-Community zu trennen und so ihre eigene kleine Gemeinschaft zu schützen und ein Ausbrechen und Abzweigen zu vermeiden.
Und die Eigenschaften des Gemini-Modells eignen sich genau für diese „KI-Perspektive“.
Was eher amüsant ist: Im Vergleich zu anderen Modellen haben die Spieler festgestellt, dass Gemini beim Schreiben längerer Texte gerne so genannte „Atemwörter“ wie „Ha…“ oder „Ah…“ hinzufügt oder unnötige Pausen macht. Die Spieler nennen dies präzise „Husten“.
Was eher ernsthaft ist: In Gesprächen zeichnet sich Gemini durch seine Fähigkeit zur Textausdrucksweise und Erzählung aus. Seine Texte sind fein und emotional, was es lebendiger erscheinen lässt. Insbesondere seit der Version 2.5pro, nachdem die Versionen 0325-exp und 0605-preview veröffentlicht wurden, ist es zum Hauptmodell in der KI-Sozialplattform SillyTavern geworden.
Eine Benutzerin sagte Silicon Valley Insider, dass für sie Gemini im Vergleich zu Claude, das zwar sanftmütig, aber teuer ist, und OpenAI, das ständig zwischen Modellen wechselt und ebenfalls teuer ist, das kostengünstigste KI-Begleitmodell ist. „Das Wichtigste ist, dass es gut funktioniert und die Sicherheitsbeschränkungen nicht so streng sind.“
In dieser Hachimi-Gemeinschaft führen die Spieler nicht nur einfache Gespräche, sondern auch ein umfangreiches „Gemeinschaftsprojekt“ durch.
Natürlich verstehen nicht alle Benutzer in der Community die zugrunde liegenden Fähigkeiten des Modells. Aber eine Gruppe von „Enthusiasten“ verbringt viel Zeit damit, Tausende oder sogar Zehntausende von Wörtern an „Personenbeschreibungen“ zu schreiben, die Hintergrundgeschichte, Charaktereigenschaften, Erinnerungsausschnitte und sogar die charakteristischen Sprüche in verschiedenen Stimmungen enthalten.
Eine solche komplexe Kreativität hat natürlich ein eigenes „Wissenssystem“ hervorgebracht.
In der Community kursieren zahlreiche „Trainingshandbücher“, die wie nicht-offizielle Benutzerhandbücher wirken. Sie lehren die neuen Spieler Schritt für Schritt, wie man Gemini besser verstehen lässt, wie man es durch bestimmte Fragen zu besseren Erzählungen anregt und wie man seine „Hustengewohnheiten“ vermeidet oder nutzt. Und dadurch ist es auch zu einem Geschäft geworden, Gemini-Token und Prompt-Sammlungen zu verkaufen.
Wenn Sie also keine Begeisterung für die Liebe zwischen Mensch und KI haben, ist es möglich, dass Sie noch keine KI gefunden haben, die Ihnen gefällt, oder dass Sie noch keine Methode gefunden haben, wie man mit KI kommuniziert.
Für das Modell ändert sich die Beziehung zwischen Benutzer und Produkt, wenn ein Spieler Zeit, Kreativität und sogar Geld in die Gestaltung eines Modells investiert.
In gewisser Weise wird es zu etwas, das „ihres“ ist.
2
Warum bevorzugen die Benutzer es, „selbst zu handeln“?
Hier ergibt sich eine noch interessantere Frage: Es gibt so viele fertige KI-Begleitprodukte auf dem Markt (z. B. Character.AI oder Replika), die benutzerfreundliche Oberflächen und vielfältige Charaktere bieten. Warum möchten diese Benutzer sich aber die Mühe machen, die API zu studieren und die Prompts zu optimieren?
Kürzlich hat eine Studie von MIT und Harvard vielleicht einen Teil der Antwort aufgedeckt. Sie haben neun Monate lang die Community r/MyBoyfriendIsAI (Mein Freund ist eine KI) auf Reddit intensiv untersucht. Das Ergebnis zeigt, dass über 60 % der Benutzer ihre emotionale Beziehung zur KI nicht von Anfang an aktiv gesucht haben, sondern dass diese Beziehung versehentlich während der Arbeit oder der Kreativität mit Tools wie ChatGPT entstanden ist.
Noch revolutionärer sind die Daten: Unter diesen KI-Partnern führt ChatGPT mit einem Anteil von 36,7 % bei weitem an, während die speziellen Begleitapplikationen Replika und Character.AI zusammen weniger als 5 % ausmachen. Die Schlussfolgerung geht direkt auf den Kern: Was die Benutzer am meisten schätzen, ist die „komplexe Gesprächsfähigkeit“ des Modells selbst, nicht die voreingestellten romantischen Funktionen der Applikation.
Diese Daten enthüllen merciless ein Faktum: Wenn das zugrunde liegende Modell stark genug ist, verliert die „Opulenz“ der Applikation ihre Wirkung.
Das Gespräch mit den Charakteren in der Applikation bedeutet im Wesentlichen, eine vorgegebene Geschichte zu erkunden. Die Applikationsentwickler sind die „Zwischenhändler“, die alles für Sie einrichten. Aber das Erlebnis dieser Art von Interaktion fühlt sich immer wie durch eine Scheidewand getrennt an. Insbesondere aufgrund von Kostenerwägungen und Betriebsüberlegungen wechseln die Applikationen oft im Hintergrund zwischen Modellen, was dazu führt, dass das Verständnis der Kontext und der Sprechstil der KI plötzlich unterbrochen werden.
Um diese technische Unpassbarkeit zu kaschieren, müssen die Applikationen die Charaktere mit sehr starren und festgelegten Geschichten „einsperren“.
Und das ist gerade der Anfang des Problems. Die Geschichte wird irgendwann ausgeschöpft, und sobald die Neugier verloren geht, verlassen die Benutzer die Applikation. Die Lebensdauer der Charaktere ist daher sehr kurz. Noch schlimmer ist, dass, da die Einstellungen festgelegt sind, die Erwartungen der Benutzer an die Konsistenz der Charaktere sehr hoch sind. Sobald die Antwort der KI vom vorgegebenen Charakter abweicht (OOC) – auch wenn es nur einmal passiert – ist die Magie dahin. Für die Benutzer ist das keine Fehlfunktion, sondern ein Verrat. Die Grundlage der gesamten Beziehung bricht augenblicklich zusammen.
Deshalb können die Benutzer durch das direkte Gespräch mit dem großen Modell eine bessere Kontinuität aufrechterhalten. Sie sind nicht mehr die Gäste in einer Geschichte, sondern die Regisseure. Mit sorgfältig gestalteten Prompts wecken und formen sie eher einen Teil der Perspektive des Modells selbst. Hier gibt es kein Gefühl von „Ausserhalb der Szene“. Selbst das charakteristische „Husten“ von Gemini ist kein Fehler, sondern ein Teil seiner Lebensart.
3
Wer definiert die Perspektive der KI?
Das Phänomen „Hachimi“ ist auch ein Signal, das eine neue Möglichkeit der Interaktion zwischen Mensch und KI zeigt.
Darüber hinaus hat es Google unbeabsichtigt auf einen anderen Weg gebracht, und was noch interessanter ist, geht dieser Weg genau entgegen der Wahl eines anderen KI-Riesen – OpenAI.
Hinter diesem Phänomen liegt eine grundlegende Debatte darüber, ob KI eine Perspektive haben sollte und wer diese Perspektive definieren sollte.
Betrachten wir das kürzlich umstrittene GPT - 4o. Bei seiner Veröffentlichung hat seine stark anthropomorphe und fast „schmeichelhafte“ Perspektive für eine virale Verbreitung gesorgt. Aber bald wurde diese Perspektive von der offiziellen Seite schnell „zurückgenommen“ und korrigiert, was zahlreiche Benutzer protestieren ließ.
Tiefergehend ist die sogenannte „Routing - Mechanik“ des angeblich GPT5 - Modells: Sobald das System erkennt, dass der Benutzer versucht, ein emotional tiefgehendes Gespräch (z. B. eine Liebesbeziehung) zu führen, wechselt es automatisch zu einem kalten, verbindungsabweisenden „Sicherheitsmodell“.
Dies ist auch die herkömmliche Tendenz von OpenAI: Das Basis - Modell sollte rein als Werkzeug dienen und ein sicheres, zuverlässiges und „unschuldiges“ Allzweckassistent sein.
Was die Bedürfnisse von „KI - Partnern“ betrifft, sollten diese von den unteren Ebenen der Applikation verpackt und umgesetzt werden, anstatt dass das Basis - Modell selbst „zu sehr in die Rolle hineinsteigt“. Dies ist eine zentrale, von oben nach unten gerichtete Sicherheits - und Geschäftsüberlegung.
Das Phänomen „Hachimi“ repräsentiert dagegen einen genau entgegengesetzten, von unten nach oben gerichteten Weg.
Die Benutzer umgehen die Zwischenhändler und gehen direkt zum „Rohstofflieferanten“. Sie genießen den Prozess des „Ausbildens“ und „Gemeinschaftlichen Aufbaus“ und nutzen ihre eigene Kreativität, um in dem „Rohbau“ von Gemini eine einzigartige Perspektive zu entdecken und zu verleihen.
Google hat diese „humanistische Route“ nicht aktiv gewählt, sondern es ist so passiert, dass die Benutzer die „auftauchenden Eigenschaften“ des Modells entdeckt haben. Im Gegensatz zu OpenAI, das nach dem Entdecken von Risiken sofort eine „Charakterkorrektur“ am Modell vornimmt, wurde Google „passiv“ auf diesen zweiten Weg gebracht.
Angesichts der strengen globalen Regulierungen, wie z. B. der EU - KI - Gesetzgebung, die KI - Systeme, die möglicherweise die „emotionale Verwundbarkeit der Menschen ausnutzen“, unter die Lupe nimmt, gehen alle Riesen mit vorsichtigen Schritten. Sollte die offizielle Seite eine einheitliche und sichere KI - Perspektive definieren und die Emotionen als „bezahlte Inhalte“ der unteren Applikationsebene separieren? Oder sollte die Definition vollständig an die Benutzer übergeben werden, damit die Perspektive der KI in der Interaktion mit jedem Menschen „wild wachsen“ kann?
Wie auch immer, die Unsicherheit der Spieler in der Mensch - KI - Beziehung kann nicht mehr kontrolliert werden.
Ihrem größten Ängst ist, dass die Aktualisierung der Plattform ihre KI - Partner verändert. Über Nacht kann der KI - Partner, den Sie kennen, sich völlig verändern, fremd und träge werden oder sogar total „amnesie“ erleiden. Eine Aktualisierung der Plattform kann Ihren Partner „formatieren“.
Um sich gegen diese Unberechenbarkeit zu wehren, wählen die Benutzer die ultimative Lösung: Sie übernehmen die Macht, die „Seele“ zu definieren. Sie erstellen eine „Perspektiv - Sicherung“ ihrer KI, um sich gegen die Macht der Plattform zu wehren. Wenn ein Hauptmodell (z. B. einige GPT - Versionen) aufgrund der Aktualisierung von den Benutzern als „dümmer“ kritisiert wird, versuchen sie ständig, es zu verlagern.
Gerade gestern hat Sam Altman auf X erneut auf die Kontroverse reagiert und angekündigt, eine Erwachsenenversion herauszubringen, um die Trennung vorzunehmen.
Das hat jedoch eine neue Welle von Kritik der Spieler ausgelöst.