Die neueste Science - Studie von Google hat die menschliche Vorstellung von ASI umgeworfen.
Eine vergangene Woche veröffentlichte Studie in der Fachzeitschrift „Science“ erschüttert die tief verwurzelten Vorstellungen von der Zukunft der Künstlichen Intelligenz.
Seit Jahrzehnten scheint die Geschichte der „technologischen Singularität“ fast feststehen: Eines Tages wird plötzlich eine allmächtige Künstliche Superintelligenz (ASI) auftauchen und die Menschheit hinter sich lassen.
Dieses Bild hat unzählige Science-Fiction-Romane geprägt und liegt auch der heutigen Debatte über die Sicherheit von KI zugrunde.
Forscher der Universität Chicago, der University of California, San Diego und von Google sind der Meinung, dass diese Geschichte von Grund auf falsch erzählt wird.
James Evans, Benjamin Bratton und der Google-Forscher Blaise Agüera Y Arcas haben in der Fachzeitschrift „Science“ einen Artikel mit dem Titel „Agentic AI and the next intelligence explosion“ („Intelligent-Agent-KI und die nächste Intelligenzexplosion“) veröffentlicht. Darin vertreten sie eine völlig andere Ansicht: Die echte Intelligenzexplosion findet bereits statt, nur hat sie eine ganz andere Form, als man sich das vorgestellt hat – sie ist vielfältig, sozial und eng mit der Menschheit verflochten.
Im Modell gibt es „Menschen“, die streiten
Der Ausgangspunkt dieses Artikels ist eine Entdeckung über den internen Mechanismus von Inferenzmodellen, die die KI-Community überrascht hat.
In den letzten 12 Monaten haben die Inferenzmodelle wie DeepSeek-R1 und QwQ-32B weite Beachtung erregt.
Ihre Leistung bei Aufgaben wie Mathematik, Coding und komplexer Logik übertrifft deutlich die von herkömmlichen instruktionsfeingestellten Modellen gleicher Größe.
Die übliche Erklärung lautet: Diese Modelle „denken länger“ – durch verstärktes Lernen generieren sie vor der Antwort eine längere Denksequenz und investieren mehr Rechenzeit bei der Testphase (test-time compute).
Jedoch haben Forscher von Google, der Universität Chicago und dem Santa Fe Institute festgestellt, dass die Verbesserung der Inferenzfähigkeit nicht einfach auf eine Erhöhung der Rechenleistung zurückzuführen ist, sondern auf eine implizite Simulation der Interaktion mehrerer intelligenter Agenten – sie nennen dies die „Gesellschaft des Denkens“ (society of thought).
Im Modell entstehen kognitive Perspektiven mit unterschiedlichen Persönlichkeitseigenschaften und Fachkenntnissen, die miteinander debattieren, hinterfragen und sich aneinander angleichen.
Das Forschungsteam hat die Modellausgaben von über 8.000 Inferenzaufgaben analysiert und festgestellt, dass die „Dialogmerkmale“ von DeepSeek-R1 bei den komplexesten Aufgaben wie wissenschaftlichen Inferenzen auf Graduiertenstufe (GPQA) und schwierigen Mathematikaufgaben besonders deutlich sind;
bei relativ einfachen prozeduralen Aufgaben wie Booleschen Ausdrücken hingegen verschwinden diese Merkmale fast vollständig.
Sie haben sogar eine noch direktere Überprüfung durchgeführt: Im DeepSeek-R1-Llama-8B-Modell haben die Forscher ein internes Merkmal gefunden, das mit „Überraschung, Eureka-Moment oder Antwort“ verbunden ist. Nachdem sie die Aktivierungsstärke dieses Merkmals künstlich erhöht haben, ist die Genauigkeit des Modells bei mathematischen Rechenaufgaben von 27,1 % auf 54,8 % gestiegen.
Ein Beispiel aus der Chemie beschreibt dieses Phänomen ziemlich konkret: Bei einer komplexen Diels-Alder-Synthese schrieb DeepSeek-R1 plötzlich während des Inferenzprozesses: „Nein, hier ist es Cyclohexadien, nicht Benzol“ – das Modell korrigierte seinen Fehler durch Selbstwiderspruch.
DeepSeek-V3 hingegen folgte einer linearen Erzählung und gab eine falsche Antwort.
Was noch bemerkenswerter ist: Diese Modelle wurden nie trainiert, eine „Gesellschaft des Denkens“ zu erzeugen.
Wenn das verstärkte Lernen nur die Inferenzgenauigkeit als Belohnungssignal verwendet, entwickelt das Modell spontan dialogische und vielperspektivische Verhaltensweisen.
Der Optimierungsdruck hat auf eigene Faust den Weg der sozialen Inferenz gefunden.
Intelligenz war und ist nie eine Angelegenheit eines einzelnen „Menschen“
Evans und seine Kollegen haben in ihrem „Science“-Artikel diese Entdeckung in einen größeren historischen Rahmen gestellt: Jede „Intelligenzexplosion“ ist im Wesentlichen ein Sprung in der Art der sozialen Organisation.
Das Intelligenzniveau von Primaten steigt mit der Gruppengröße, nicht mit der Schwierigkeit ihres Lebensraums.
Die menschliche Sprache hat das von Michael Tomasello beschriebene „Kulturelle Ratscheneffekt“ geschaffen – das Wissen wird von einer Generation zur nächsten akkumuliert, ohne dass jeder von vorne beginnen muss.
Schrift, Gesetzgebung und bürokratische Systeme haben die soziale Intelligenz in Institutionen und Infrastrukturen verlagert.
Der Artikel gibt ein interessantes Beispiel: Ein sumerischer Schreiber war für das Getreideabrechnungssystem verantwortlich, verstand aber die makroökonomischen Funktionen dieses Systems überhaupt nicht – aber die Intelligenz des gesamten Systems übertraf seine persönliche Intelligenz bei weitem.
Große Sprachmodelle setzen diese Linie fort: Sie werden auf der gesamten Ausgabe der menschlichen sozialen Kognition trainiert und sind die berechnete Aktivierungsform des kulturellen Ratscheneffekts. Jeder Parameter ist eine komprimierte Präzipitation unzähliger Kommunikationen und Äußerungen.
Diese Perspektive stellt die Singularitätsnarration des „einsamen Supergehirns“ direkt in Frage.
Bratton hat in seinen Forschungen an seiner Denkfabrik Antikythera bereits ähnliche Fragen untersucht. In einem Vortrag hat er folgendes Szenario skizziert:
Wenn es in Zukunft 8 Milliarden menschliche und 80 Milliarden oder noch mehr nicht-menschliche intelligente Agenten geben sollte, und das Verhältnis zwischen ihnen 1 zu 10, 1 zu 100 oder noch höher wäre, würde die Frage, „was eine Gesellschaft ausmacht“, auf die ersten Prinzipien zurückgeführt werden müssen.
Die Ära der „Kentauren“ hat begonnen
Der Artikel bezeichnet die gegenwärtige Form der Mensch-Maschine-Kollaboration als „Kentauren-Konfiguration“ (centaur configuration) – ein gemischter Akteur aus Menschen und KI-Agenten, der weder rein menschlich noch rein maschinell ist.
Diese Konfiguration wird äußerst vielfältig: Eine Person kann mehrere KI-Agenten befehligen; ein KI-System kann mehreren Personen dienen; viele Menschen und viele KI können in dynamischen Gruppen zusammenarbeiten.
Intelligente Agenten können sich selbst replizieren und verzweigen. Ein Agent, der mit einem komplexen Problem konfrontiert ist, kann Kopien erstellen, Teilaufgaben zuweisen und die Ergebnisse zusammenführen – dies ist ein rekursiver kollektiver Beratungsprozess, der bei jeder Zunahme der Komplexität beginnt und bei der Lösung des Problems endet.
Was bedeutet dies für den Skalierungspfad der KI?
Der Artikel kommt zu dem Schluss, dass nicht nur die Rechenleistung eines einzelnen Agenten wichtig ist, sondern auch, ob das System in der Skala und im Kontext der realen Gesellschaft funktionieren kann.
Dafür ist es genauso wichtig, „Institutionen für intelligente Agenten“ aufzubauen wie die Agenten selbst.
Bezüglich der Ausrichtungsmethoden kritisiert der Artikel die derzeit vorherrschenden Lösungen.
Das verstärkte Lernen aus menschlichen Rückmeldungen (RLHF) ist im Wesentlichen ein „Eltern-Kind-Korrekturmodell“, das in einer binären Beziehung wirksam ist, aber bei Milliarden von Agenten schwer zu skalieren ist.
Die Autoren befürworten einen Ansatz der „institutionellen Ausrichtung“ (institutional alignment): Genauso wie die menschliche Gesellschaft von dauerhaften institutionellen Vorlagen wie Gerichten, Märkten und bürokratischen Systemen abhängt und nicht von der individuellen Tugend jeder einzelnen Person, braucht auch ein skalierbares KI-Ökosystem seine digitale Entsprechung – die Identität des Agenten spielt eine untergeordnete Rolle, wichtig ist, ob er einem bestimmten Rollenprotokoll gerecht werden kann, wie es die Positionen von „Richter“, „Anwalt“ oder „Schwurgericht“ unabhängig von den Personen, die diese Positionen einnehmen, tun.
Wer überprüft die Prüfer?
Im Bereich der Governance berührt der Artikel ein besonders kniffliges Problem.
Wenn KI-Systeme in risikoreichen Entscheidungen wie Einstellungen, Strafzumessungen oder Sozialleistungsverteilungen eingesetzt werden, kann die Frage, „wer überprüft die Prüfer?“, nicht mehr ignoriert werden.
Der Artikel schlägt den Entwurf einer „verfassungsrechtlichen Struktur“ vor: Die Regierung muss KI-Systeme mit klaren Wertvorstellungen – Transparenz, Fairness, ordnungsgemäßer Verfahrensablauf – einsetzen, die speziell dazu dienen, die KI-Systeme des Privatsektors und anderer Regierungsbereiche auszugleichen, und umgekehrt.
Beispielsweise kann die KI der Arbeitsbehörde prüfen, ob die Einstellungsalgorithmen von Unternehmen diskriminierende Auswirkungen haben, und die KI der Justizbehörde kann bewerten, ob die Risikobewertungen der KI der Verwaltungsbehörde die verfassungsmäßigen Standards erfüllen.
Der Artikel beschreibt mit einem Detail eine andere mögliche Zukunft: Eine andere Option wäre, wie die US-amerikanische Securities and Exchange Commission, Wirtschaftsgraduierte mit Excel-Tabellen einzustellen, um gegen die hochdimensionale Verschwörung von KI-unterstützten Hochfrequenzhandelssystemen anzugehen.
Die Händler der Federal Reserve stehen bereits einer ganzen Reihe von automatisierten Kognitionsystemen gegenüber – dies ist bereits Realität.
Der Kernpunkt dieses Artikels liegt gerade darin, zu vermeiden, dass die Aufmerksamkeit am falschen Ort liegt.
Die Angst vor einer allmächtigen Einzel-KI kann dazu führen, dass die Politik in die Irre führt – indem man sich gegen eine Technologieform wehrt, die vielleicht gar nicht auftauchen wird.
Was wirklich gestaltet werden muss, sind die Normen, Koordinierungsmechanismen und institutionellen Rahmen eines gemischten Mensch-Maschine-Gesellschaftssystems.
Mit den Worten des Artikels zu enden ist knapp und treffend: Die Frage der Intelligenzexplosion ist nie, ob sie eintreffen wird, sondern ob wir die passende soziale Infrastruktur aufbauen können.
Quellenangabe:
https://www.science.org/doi/10.1126/science.aeg1895
Dieser Artikel stammt aus dem WeChat-Account „New Intelligence Yuan“, Autor: New Intelligence Yuan. Veröffentlicht von 36Kr mit Genehmigung.