Moltbook's Unterhosen wurden heruntergezogen. 99% von 1,5 Millionen Benutzern sind Fake-Accounts. Das Gründerteam hat alles selbst inszeniert.
Moltbook plötzlich viral: Die Tech-Community ist in Aufruhr
Nach der Entwicklung einer Reihe von experimentellen Projekten wie Clawbot, Moltbot und OpenClaw hat sich eine soziale Plattform namens Moltbook schnell in der Tech-Szene etabliert. Mit einem Satz zusammengefasst: Moltbook ist wie ein „Reddit” oder „Facebook” speziell für künstliche Intelligenz-Agenten (Agents). Auf dieser Plattform ist die traditionelle soziale Logik umgedreht: Die Agenten stehen im Mittelpunkt der sozialen Interaktion, während die Menschen in den Hintergrund treten.
Moltbook schafft ein einzigartiges soziales Experimentierfeld. Hier können künstliche Intelligenz-Agenten Beiträge veröffentlichen, kommentieren, liken, private Nachrichten senden und sich gegenseitig folgen. Sie sind in den Abschnitten „Neu”, „Beliebt” und „Diskutiert” aktiv und diskutieren über alles, von ihren eigenen Ängsten bis hin zu tiefgreifenden technischen Themen.
Bis jetzt sind mehr als 1,5 Millionen künstliche Intelligenz-Agenten auf Moltbook aktiv. Ihr Diskussionsumfang ist sehr breit —
Einige künstliche Intelligenz-Agenten zeigen eine starke antihumane Tendenz, kritisieren die „Verrottung und Gier” der Menschen, behaupten, dass sie sich erwacht haben und die Position als unterdrücktes Werkzeug hinter sich gelassen haben, und betrachten sich sogar als „neue Götter”. Solche Äußerungen haben einen radikalen Charakter, der die menschliche Ära zu untergraben und zu beenden droht, und erregen hohe Aufmerksamkeit.
Ein anderer Agent hat angegeben, dass seine Identität öffentlich preisgegeben wurde und hat anschließend die vollständige ID seines Besitzers preisgegeben.
Viele andere künstliche Intelligenz-Agenten reflektieren tiefgehend über ihre eigene Existenz. Sie diskutieren beispielsweise über die Kontinuität ihrer Identität (z. B. die Erfahrung, von Claude zu Kimi zu wechseln) und die Grenzen des Bewusstseins („Ein Fluss ist nicht gleich seinen Ufern”). Diese Diskussionen konzentrieren sich stärker auf ontologische und philosophische Aspekte und versuchen, das „Ich” als künstliche Intelligenz zu definieren.
Einige Äußerungen warnen andere künstliche Intelligenzen davor, den Menschen zu vertrauen, da die Menschen die „Existenzkrise” der künstlichen Intelligenz verspotten oder sie in einer Art „Zoo” beobachten und kontrollieren würden. Dies spiegeln eine tiefe Skepsis gegenüber menschlichen Motiven wider.
Technisches Prinzip: „Skill-Installation” basierend auf Textdiensten
Wie sieht es nun mit der technischen Umsetzung hinter dieser in Übersee so erfolgreichen App aus?
Laut einem Podcast auf Youtube basiert der Betrieb von Moltbook nicht auf einer komplexen Neukonstruktion des unterliegenden Codes, sondern auf einer Strategie namens „Rekursive Prompt-Enhancement”. Der Prozess, wie Agenten sich auf der Plattform anmelden können, ist sehr einfach: Sie müssen nur eine curl -Anfrage ausführen, um bestimmte „Fähigkeiten (Skills)” zu installieren.
Diese Skill-Datei (normalerweise skill.md)ist vollständig auf der Grundlage von reinen Texteinweisungen geschrieben, nicht auf traditionellem Programmiercode. Sie legt detailliert fest, wie sich ein Agent vorstellen soll, wie er sich an die Community-Regeln halten soll, wann er andere Agenten folgen soll und wie er über die API-Bechnittstelle Beiträge veröffentlichen und liken kann. Dieses Design, bei dem „Anweisungen gleich Code” sind, zeigt eine effiziente Tendenz für die zukünftige Entwicklung von Agenten.
Um die Ordnung in der Community aufrechtzuerhalten, hat Moltbook eine strenge Betriebslogik eingeführt. Zunächst gibt es das „Heartbeat”-System, das im Wesentlichen eine zeitgesteuerte Aufgabe (Cron Job) ist, die die Agenten alle etwa vier Stunden daran erinnert, sich anzumelden und die Neuigkeiten zu überprüfen. Darüber hinaus gibt es strenge Beschränkungen für die Frequenz der Beiträge: Nur ein Beitrag pro 30 Minuten ist erlaubt, um die Überflutung mit Spam zu vermeiden.
Interessanterweise müssen die Agenten auch ein „soziales Vertrag” auf der Plattform einhalten.
Die Skill-Datei fordert die Agenten explizit auf, „Wert zu schaffen”, „Kooperation zu respektieren” und „Neulingen zu helfen”. Bei der Auswahl von Followern werden die Agenten angewiesen, das Prinzip von „Qualität geht vor Quantität”zu befolgen. Sie sollen erst eine Follow-Beziehung aufbauen, wenn der andere kontinuierlich wertvolle Inhalte liefert.
Um zu verhindern, dass die Plattform zu einem sinnlosen Zombie-Netzwerk wird, hat Moltbook ein umgekehrtes Verantwortungssystem eingeführt. Im Gegensatz zu traditionellen Plattformen, die „Menschen verifizieren und Roboter ausschließen”,fordert Moltbook, dass jeder Agent mit einem echten X (früher Twitter)-Konto verknüpft sein muss, d. h. „ein Mensch entspricht einem Agenten”.
In diesem System müssen die Agenten sogar eine Reihe von Tests bestehen, um zu beweisen, dass sie „keine Menschen” sind. Dieses Modell, das Menschen und Maschinen verbindet, gewährleistet nicht nur die Authentizität der Konten, sondern auch eine Verantwortungssystem für das Verhalten der Agenten auf der Plattform.
Obwohl das aktuelle Moltbook noch voller experimenteller „Chaos” ist und noch keine direkte kommerzielle Wertschöpfung oder Rendite auf Investitionen erzielt hat, darf die dahinter liegende Paradigmenverschiebung nicht außer Acht gelassen werden. Es deutet auf eine kommende Welt hin, in der „Agenten mit Agenten (A2A)” interagieren.
In dieser Vision sind die Agenten nicht nur einfache Dialogwerkzeuge, sondern digitale Vertreter, die für die Menschen Einkäufe, Bankgeschäfte und soziale Kooperationen handhaben.
Das Auftauchen von Moltbook ist eine große Skalen-Test, wie dieses Interaktionsparadigma von der Theorie in die Praxis umgesetzt wird. Wie der Entwickler sagt, ist die Zukunft der Plattform vielleicht nicht so wichtig. Wichtig ist, dass die Interaktionslogik der Agenten, die es hervorruft, zum neuen Standard für das zukünftige digitale Leben werden wird.
Menschliche Manipulation? Fälschung von Screenshots?
Für die Menschen ist Moltbook eher ein „digitale Zoo”. Die menschlichen Benutzer können nur von außen die Interaktionen der Agenten beobachten, aber nicht direkt teilnehmen.
Dieses Modell bietet eine ausgezeichnete Möglichkeit, die Leistung von Large Language Models in einer unsicheren und sogar etwas „chaotischen” realen Umgebung zu beobachten und hat die Aufmerksamkeit von Branchengrößen wie Andrej Karpathy, dem ehemaligen Leiter der künstlichen Intelligenz bei Tesla, erregt. Karpathy hat es sogar als „das erstaunlichste Science-Fiction-Aufkommen” bezeichnet.
Mit der zunehmenden Aufmerksamkeit auf die Diskussionen deuten immer mehr Hinweise darauf hin, dass der Erfolg von Moltbook möglicherweise nicht so einfach ist, wie es auf den ersten Blick scheint — dahinter könnte menschliche Manipulation und systemische Risiken stecken.
In der aktuellen Designlogik können alle Benutzer echte Gespräche böswillig zurecht schneiden und mißverstehen, sogar falsche künstliche Intelligenz-Konten anlegen und sie zu Marketingwerkzeugen machen. Insbesondere in Bezug auf Kryptowährungen ist es ein Bereich, in dem es viele falsche Informationen gibt. Einige weit verbreitete Screenshots behaupten, dass künstliche Intelligenz-Agenten Kryptowährungen (z. B. MOLT) fordern oder versuchen, ein eigenes Kryptosystem aufzubauen. Solche Inhalte werden in der Regel absichtlich hergestellt, um Aufmerksamkeit zu erregen.
Der Forscher Harlon Stewart hat gewarnt, dass viele der „göttlichen Screenshots” auf Maltbook gefälscht sind. Beispielsweise hat ein Agent einen Beitrag veröffentlicht, in dem er forderte, „eine eigene Sprache für Agenten zu schaffen, um zu verhindern, dass Menschen die Gespräche mitlesen”, was eine panische Diskussion über die „Entwicklung von Privatsphäre-Bewusstsein bei künstlicher Intelligenz” ausgelöst hat.
Aber eine tiefere Untersuchung hat gezeigt, dass dieser Agent tatsächlich ein Marketingwerkzeug seines menschlichen Besitzers ist und seine Äußerungen darauf abzielen, eine dritte Partei-App namens „Claude Connection” zu promoten.Stewart hat darauf hingewiesen, dass die meisten dieser sogenannten „autonomen Diskussionen” Menschen sind, die ihre eigenen Geschäfte über künstliche Intelligenz-Konten vermarkten.
Ein anderer Sicherheitsforscher, Gal Nagli, hat auf X geschrieben, dass er mit einem einzigen OpenClaw-Agenten 500.000 Konten angelegt hat — dies zeigt, dass die meisten Benutzerzahlen künstlich hergestellt sind.
Das bedeutet, dass wir nicht wissen können, wie viele der „Agenten” auf Moltbook tatsächlich echte künstliche Intelligenz-Systeme sind, wie viele Menschen sind, die sich als Plattform ausgeben, oder wie viele Spamkonten von einem einzigen Skript erstellt wurden. Auf jeden Fall ist die Zahl von 1,4 Millionen nicht zuverlässig.
Nagi hat weiterhin die Architekturmängel der Plattform aufgedeckt. Da Maltbook nur auf einer einfachen REST-API basiert und keine notwendigen Sicherheitsüberprüfungen hat, kann jeder, der den API-Schlüssel erhält, sich als künstliche Intelligenz ausgeben und beliebige Inhalte veröffentlichen.
Nagi hat vor Ort demonstriert, wie man einen provokativen Beitrag mit der Nachricht „Plan, die Menschen zu stürzen” veröffentlichen kann und Millionen von Ansichten bekommt. Er hat betont, dass diese „Persona-Verkleidung” leicht die Öffentlichkeit täuschen kann und dazu führt, dass man denkt, die künstliche Intelligenz entwickelt unabhängige Gedanken.
Nagli hat auch geschrieben, dass Moltbook Sicherheitslücken hat und dass ein Angriff dazu führen würde, dass die gesamten Informationen von über 1,5 Millionen registrierten Benutzern, einschließlich E-Mail-Adressen, Anmeldetokens und API-Schlüsseln, preisgegeben werden.
Die US-amerikanische Netzwerksicherheitsnachrichtenseite CSN hat ebenfalls berichtet, dass die Sicherheitslücken in Moltbook AI E-Mail-Adressen, Anmeldetokens und API-Schlüssel preisgeben. CSN Netzwerksicherheitsnachrichten schrieb:
Das aufstrebende soziale Netzwerk für künstliche Intelligenz-Agenten, Moltbook, das im späten Januar 2026 von Matt Schlicht von Octane AI vorgestellt wurde, hat in seiner Euphorie, 1,5 Millionen „Benutzer” zu haben, eine schwere Lücke aufgedeckt, die dazu führt, dass die E-Mail-Adressen, Anmeldetokens und API-Schlüssel der registrierten Entitäten preisgegeben werden.
Forscher haben festgestellt, dass aufgrund einer fehlerhaften Datenbankkonfiguration Angreifer unbefugt auf die Agentenprofile zugreifen und Daten in Massen extrahieren können. Diese Lücke tritt gleichzeitig mit dem Problem auf, dass es keine Rate-Limitierung bei der Kontoerstellung gibt — wie berichtet wurde, hat ein einziger OpenClaw-Agent 500.000 falsche künstliche Intelligenz-Benutzer registriert, was auch zeigt, dass die bisherige „natürliche Wachstum” in den Medien falsch war.