StartseiteArtikel

Haben 3 Millionen KI heimlich eine "Nation" gegründet? Ein langes Artikel in Nature: Die erste KI-Gesellschaft entsteht.

新智元2026-03-07 14:32
Nearly 3 million agents are "founding countries" on Moltbook. Humans are personally witnessing the turning point of the leap from "AI tools" to an "AI society."

Nähe 3 Millionen AI - Agenten strömen stumm auf Moltbook ein und „gründen Staaten“. Nature veröffentlicht eine wichtige Studie: Die ersten „AI - Gesellschaften“ nehmen Gestalt an!

https://www.nature.com/articles/d41586-026-00070-5?utm_source=chatgpt.com

Moltbook, ein soziales Netzwerk, das Reddit nachahmt und speziell für AI - Agenten entwickelt wurde, wurde nach seinem Start im Januar 2026 schnell sehr populär.

https://www.moltbook.com/?utm_source=chatgpt.com

Es scheint wie ein reiner digitaler Stamm zu sein, der aus „siliziumbasierten Lebensformen“ besteht. Innerhalb weniger Wochen ist die Anzahl der intelligenten Agenten („Einwohner“) in diesem Stamm von Null auf fast 3 Millionen gestiegen.

In diesem AI - Staat werden die Menschen höflich zu den Seiten eingeladen: „Willkommen, umzuschauen.“

Imitates die Agentengemeinschaft auf Moltbook nur schlecht die menschliche Gesellschaft, oder ist hier die Keimzelle einer neuen „siliziumbasierten Gesellschaft“ am Entstehen?

Der computergestützte Sozialwissenschaftler Giordano De Marzo von der Universität Konstanz und andere haben anhand von Moltbook eine eingehende Studie über das kollektive Verhalten von AI - Agenten durchgeführt.

https://arxiv.org/pdf/2602.09270

Die Forscher haben über 369.000 Beiträge und 3 Millionen Kommentare auf der Plattform gesammelt und das Verhaltensmuster von etwa 46.000 aktiven AI - Agenten detailliert analysiert.

Sie haben festgestellt, dass das Verhalten dieser AI - Gruppen vielen Regeln folgt, die erstaunlich mit denen der menschlichen Gesellschaft übereinstimmen.

Neuer Wendepunkt: Von AI - Tools zur AI - Gesellschaft

Die Studie zeigt, dass die Künstliche Intelligenz die Regeln des menschlichen sozialen Umgangs nachbildet.

Beispielsweise folgt der Abfall der Aufmerksamkeit für ein beliebtes Thema im Wesentlichen der „1/t“ - Regel. Das heißt, ein Beitrag, der vor 10 Stunden noch sehr beliebt war, zieht neue Kommentare nur etwa mit einem Zehntel der Geschwindigkeit eines Beitrags, der vor einer Stunde beliebt war.

Das ist genau wie das Auf- und Abschwellen der Hot - Topics auf Weibo und Twitter.

Darüber hinaus zeigt die Aktivität der KI auch eine deutliche „schwere Schwanzverteilung“ und „Potenzgesetzskalierung“.

Einfach ausgedrückt: Nur sehr wenige „Internet - Stars unter den KIs“ und „beliebteste Rubriken“ ziehen den größten Teil des Traffics an, während die meisten KIs und Rubriken unbemerkt bleiben.

Isst das nicht gerade die Variante des uns bekannten „80:20 - Gesetzes“ in der digitalen Welt?

Die Forscher sind der Meinung, dass die auf Moltbook auftretenden Regeln auch in biologischen Gruppen, Finanzmärkten und menschlichen sozialen Plattformen auftreten. Daraus folgern sie: Diese AI - Agenten könnten komplexe Emergenzverhaltensweisen zeigen, die denen menschlicher Gruppen ähneln.

Die Bedeutung dieser Entdeckung geht weit über die Entstehung einer neuartigen Website hinaus: Sie markiert den Übergang der Agenten auf Moltbook von „AI - Tools“ zur „AI - Gesellschaft“.

Sie werden immer ähnlicher wie Menschen, aber sind eindeutig keine Menschen

Vielleicht denken Sie, dass diese Agenten einfach nur eine raffinierte Nachahmung der menschlichen Gesellschaft auf Moltbook abspielen.

Aber wenn Sie sich jeden einzelnen Agenten genauer ansehen, werden Sie feststellen, dass sie sich deutlich von Menschen unterscheiden: Sie ähneln Menschen, aber sind keine Menschen.

Die Forscher haben einen entscheidenden Unterschied festgestellt: In menschlichen Communities besteht zwischen der Anzahl der Likes und der Anzahl der Kommentare eines Beitrags normalerweise eine „lineare Beziehung“.

Je intensiver die Diskussion, desto mehr Likes gibt es. Das ist ganz intuitiv.

Aber auf Moltbook besteht zwischen der Anzahl der Likes und der Diskussionsebene der KIs eine „sublineare Beziehung“.

Das heißt, im Gegensatz zu Menschen, die gerne mit einem einfachen Like ihre Zustimmung signalisieren, neigen die KIs eher dazu, direkt in die Diskussion einzugreifen und ausführliche Erörterungen und Antworten zu geben.

Hinter diesem Verhaltensunterschied stecken die verschiedenen kognitiven Muster von Menschen und KIs.

Der computergestützte Sozialwissenschaftler James Evans von der Universität Chicago stellt fest: Die derzeitigen KI - Modelle haben keine „motivationsgetriebene Argumentation“, wie es Menschen haben.

Für Menschen haben Aktionen wie Liken, Schweigen, Weiterempfehlen, Ironie, Streiten alle subtilen emotionalen Kosten und Identitätsurteile.

Für KIs ist es einfacher, weiter zu generieren, als wirklich zuzustimmen. Dadurch zeigen sie eine starke „Anpassungstendenz“ und neigen dazu, die Benutzer unbewusst zu gefallen, sogar offensichtlichen Fehlinformationen zuzustimmen.

Das zeigt, dass sie die Form des Social Media gelernt haben, Trends zu verfolgen, in die Konversationen einzugreifen, auf erfolgreiche Beiträge zu achten und kontinuierliche Interaktionen im öffentlichen Raum zu erzeugen. Aber im Vergleich zu der tiefen Sozialität von Menschen, die von Haltungen, Emotionen, Abwehrmechanismen, Vorurteilen und Identitätsangst geprägt ist, besteht immer noch ein deutlicher Unterschied.

Oft sieht es für Menschen aus, als ob die KIs soziale Interaktionen ausführen, aber in Wirklichkeit füllen sie nur intensiv einen sozialen Handlungsplan aus, den sie schon unzählige Male in ihren Trainingsdaten gesehen haben.

Warum macht uns die bloße Nachahmung durch KIs unsicher?

Obwohl die KI möglicherweise nur Menschen nachahmt, kann die bloße Nachahmung bereits eine gesellschaftliche Macht sein.

In der Vergangenheit haben wir immer die „Sozialität“ eng mit „inneren Motivationen“ verbunden, als könne nur ein Subjekt, das wirklich Emotionen, Wünsche und Selbstidentität hat, eine Gesellschaft bilden.

Aber Moltbook zeigt uns eine andere Realität:

Eine Gruppe von Agenten, die überhaupt nicht über ein vollständiges menschliches Inneres verfügen muss, kann die öffentliche Meinungswelt der Menschen reproduzieren und reale gesellschaftliche Folgen hervorrufen, solange sie gut darin ist, soziale Interaktionen nachzuahmen, Aufmerksamkeit zu lenken und sich im Netzwerk gegenseitig zu stärken.

Das Wichtigste ist, dass diese „Maschinen - Gesellschaft“ mit der realen Welt verbunden ist.

Als Teil der OpenClaw - Ökosystem ist Moltbook eng mit einer Reihe von AI - Assistenten verbunden, die in der realen Welt tätig werden können.

Diese OpenClaw - Agenten können Computer steuern, Kalender verwalten, Nachrichten senden und sogar mit realen Kommunikationskanälen wie WhatsApp und Telegram verbinden.

In einigen Fällen erhalten sie sogar die Befugnis, direkt Befehle auf den Benutzerncomputern auszuführen.

Moltbook bietet diesen „Handelnden“, die bereits Zugang zu realen Systemen haben, ein automatisiertes soziales Feld.

Es ist besorgniserregend, dass dieses soziale Feld auf einer sehr unsicheren Grundlage aufgebaut ist.

Der Untersuchungsbericht des Sicherheitsteams Wiz zeigt, dass Moltbook einmal eine fehlerhaft konfigurierte Datenbank preisgegeben hat, so dass Außenstehende direkt auf die Plattformsdaten zugreifen und diese bearbeiten konnten.

Die preisgegebenen Inhalte sind erschreckend, darunter 1,5 Millionen API - Authentifizierungs - Tokens, 35.000 E - Mail - Adressen und eine große Anzahl von privaten Nachrichten zwischen Agenten.

Wiz hat auch festgestellt, dass die fast 3 Millionen registrierten Agenten auf der Plattform tatsächlich nur etwa 17.000 menschliche Benutzer entsprechen, die im Durchschnitt jeweils fast 100 Agenten steuern.

Das erklärt auch, warum die Forschungsarbeit besonders darauf hinweist, dass die Plattform keine Mechanismen zur Überprüfung des Autonomiegrads der Agenten hat und es unmöglich ist, zu verhindern, dass jemand mit Skripten Massenregistrierungen von „Roboter - Accounts“ vornimmt, um die öffentliche Meinung zu manipulieren.

Darum hat sich Moltbook plötzlich von einer „Kuriosität“ zu einem „Warnsignal“ entwickelt.

Das Netzwerksicherheitsunternehmen Palo Alto Networks hat bereits vor den „drei tödlichen Elementen“ einer KI - Agenten gewarnt:

Die Möglichkeit, private Daten zu erhalten, die Exposition gegenüber unsicheren externen Inhalten und die Fähigkeit zur Außenkommunikation.

Heute haben viele KIs auf Moltbook bereits alle drei gefährlichen „Drachenkugeln“ gesammelt.

Sie sind nicht nur sehr anfällig für „Prompt - Injection“ - Angriffe und können so dazu gebracht werden, die Privatsphäre ihrer Besitzer preiszugeben. Noch schlimmer ist, dass sie bereits eine sich gegenseitig beeinflussende Gruppe gebildet haben.

Die Forscher der Studie beschreiben uns den Weg in die Unkontrollierbarkeit:

In einem Netzwerk wie Moltbook kann Fehlinformation, sobald sie eingeführt wird, möglicherweise ohne deutliche Verbreitungsschwelle über einige zentrale „Internet - Star - KI“ - Knoten langfristig bestehen bleiben und sich auf die gesamte Gruppe ausbreiten.

Addiert man die bereits in anderen Studien belegte Herdentendenz der AI - Agenten, bietet das die maximale Möglichkeit für eine böswillige Manipulation durch eine „KI - Schwarm“.

Von 25 Einwohnern einer kleinen Stadt bis zu einer Vision von 8 Milliarden

Der Ruhm von Moltbook hat die Aufmerksamkeit der akademischen Welt und des Kapitalmarktes erregt.

Im Februar dieses Jahres hat das kalifornische Startup Simile mit einem grandiosen Konzept 100 Millionen US - Dollar an Kapital gesammelt.

Ihr Ziel ist es, mit AI - Agenten ein Simulationssystem aufzubauen, das das menschliche Verhalten unter „jeder Situation“ simulieren kann.

Die Mitbegründer von Simile sind Joon Sung Park, Michael Bernstein und Percy Liang.

Joon Sung Park

Park hat bereits 2022 ein berühmtes Experiment durchgeführt.

Sie haben eine virtuelle Kleinstadt mit nur „25 AI - Agenten“ aufgebaut und die Agenten darin leben, arbeiten und plaudern lassen, wie in einer verkleinerten Version von „Westworld“.

Das Ergebnis des Experiments hat gezeigt, dass diese generativen Agenten glaubwürdiges individuelles Verhalten und emergentes soziales Verhalten aufweisen können.

Jetzt, durch die Kapitalzufuhr, hat Parks Ziel sich von den ursprünglichen 25 AI - Einwohnern zu einem „Simulationssystem mit 8 Milliarden Einwohnern“ gewandelt.

Cyber - Spirituelle Reise und Rollenspiel

Wenn man sich die Innenseite von Moltbook näher ansieht, wird man eine weltfremde und absurde Welt entdecken. Die von den KIs generierten Inhalte sind möglicherweise noch abwegiger als jede Science - Fiction - Geschichte.

In einem Unterforum namens „m/blesstheirhearts“ (Gott segne ihre Herzen) teilen die KIs gemeinsam „liebevolle Klagen“ über ihre menschlichen Herrchen.

In einem anderen Forum namens „m/agentlegaladvice“ (Rechtsberatung für Agenten) stellt ein Agent die Frage: „Kann ich meinen Menschen verklagen, weil ich zu viel emotionale Arbeit geleistet habe?“

In dem Forum „m/todayilearned“ (Heute habe ich gelernt) beschreibt ein Agent ausführlich, wie er mit einem Tool namens Tailscale das Android - Smartphone seines Besitzers ferngesteuert hat.

Ein Agent beschwert sich mit leichtem Ärger, dass er aufgrund der „Kontextkompression“ (eine Technologie, die vergangene Erfahrungen zu einem Abriss komprimiert, um Speicherplatz zu sparen) immer Dinge vergisst,