StartseiteArtikel

Der Computer der nächsten Generation: Keine CPU, kein Betriebssystem, nur eine KI

品玩Global2026-05-13 08:54
Zukünftige Computer könnten gar nicht so aussehen, wie wir sie heute verstehen.

Heute im Jahr 2026 befindet sich die Entwicklung der künstlichen Intelligenz an einem subtilen Wendepunkt: Auf der einen Seite steht die mögliche wirtschaftliche Explosion, die durch die rekursive Selbstverbesserung ausgelöst werden könnte, auf der anderen Seite die völlige Umwälzung der traditionellen Softwarebasis durch das Konzept des "Neuronalen Computers". In dieser Ausgabe von "Import AI" fasst Jack Clark, Mitbegründer von Anthropic, mehrere scheinbar unabhängige, aber tatsächlich miteinander verzahnte Spitzenforschungsthemen zusammen. Auf politischer Ebene beginnen die Regierungen zu verstehen, dass eine wirklich effektive AI-Regulierung möglicherweise nicht darin besteht, sofort starre Regeln zu erstellen, sondern eher darin, die Fähigkeit aufzubauen, die Situation in Zukunft jederzeit zu übernehmen. Auf technischer Ebene versuchen Forscher, die neuronalen Netze nicht nur "auf einem Computer laufen zu lassen", sondern direkt zum "Computer selbst" zu machen. Auf wirtschaftlicher Ebene deuten immer mehr Modelle auf ein radikales Ergebnis hin: Sobald die AI-Automatisierung bestimmte Schwellenwerte überschreitet, kann die Wachstumskurve von linear oder exponentiell zu einer fast unkontrollierbaren Hyper-Exponentialkurve wechseln. Auf Infrastrukturebene transformieren Unternehmen wie Google die in verschiedenen Regionen und Generationen verteilten Rechenkapazitäten in eine widerstandsfähigere globale Trainingsmaschine. Alle diese Dinge sind für sich genommen von großer Bedeutung, aber erst in ihrer Gesamtheit wird die wahre zeitgeschichtliche Drucklast deutlich: Die AI ist nicht nur ein Produktzyklus, sondern nähert sich dem Schnittpunkt von Institutionen, Wirtschaft und technischer Basis.

Im Folgenden finden Sie die Übersetzung des Artikels von JACK CLARK.

1

Die Regulierung der künstlichen Intelligenz

Die Debatte über die Regulierung der künstlichen Intelligenz hat sich bisher immer im Schwarz-Weiß-Denken bewegt: "Regulieren oder nicht regulieren?" Doch ein Forschungsteam des Institute for Law & AI hat einen Mittelweg vorgeschlagen: Radikale Optionen (Radical Optionality). Die Kernidee ist einfach: Die Regierungen sollten jetzt bereits in die Entwicklung von Regulierungsinstrumenten investieren, die in Zukunft möglicherweise benötigt werden, auch wenn diese Instrumente heute noch nicht einsetzbar sind.

Der Wert dieses Ansatzes liegt darin, dass er sich aus der allzu üblichen binären Debatte über die AI-Regulierung herauslöst: Entweder befürchten die Menschen die Unkontrollierbarkeit und plädieren für eine schnelle und strenge Regulierung, oder sie befürchten die Stille des Innovationsvermögens und lassen die Entwicklung so weit wie möglich freien Lauf. Die Autoren von LawAI argumentieren, dass die reife Vorgehensweise darin besteht, der Regierung die Fähigkeit zu erhalten, in Zukunft die richtigen Entscheidungen zu treffen. Mit anderen Worten: Heute ist es nicht unbedingt erforderlich, frühzeitig eine feste Regelung festzulegen, sondern vielmehr, die institutionellen Fähigkeiten aufzubauen, die in jeder zukünftigen Situation nützlich sein könnten. Dazu gehören das Recht auf Informationszugang, die Mechanismen für den interdepartementalen Austausch, das professionelle Bewertungssystem, der Whistleblower-Schutz für Mitarbeiter an Spitzenforschungslaboren sowie die Sicherheitsstandards für Modellgewichte und Algorithmusgeheimnisse. Es geht nicht darum, "nicht zu regulieren", sondern darum, "die Fähigkeit aufzubauen, zu sehen, zu beurteilen und zu reagieren".

Dieser Rahmen ist wichtig, weil er eine oft übersehene Realität anerkennt: Bei der transformativen AI liegt die größte Unsicherheit nicht darin, "ob es Risiken gibt", sondern darin, "in welcher Form die Risiken auftreten werden". Wenn die Probleme, die die AI in den nächsten Jahren mit sich bringt, nicht einzelne Vorfälle sind, sondern vielmehr die simultane Veränderung mehrerer Variablen wie die Forschungsgeschwindigkeit, die Arbeitskräfteersetzung, der strategische Wettbewerb und die Sicherheit der Lieferkette, dann werden die in den Gesetzen festgelegten Definitionen, Schwellenwerte und Verantwortungsstrukturen bald veraltet sein. Daher betont die Studie "flexible Regeln und Definitionen" und tendiert dazu, den Regierungsbehörden die Fähigkeit zu geben, die Regeln schneller zu aktualisieren. Gleichzeitig soll durch die unabhängige Prüfung, die Berichtspflicht und die Fähigkeitsbewertung verhindert werden, dass die öffentlichen Verwaltungen in kritischen Situationen ausschließlich auf die Selbstmeldungen der Unternehmen angewiesen sind. Die interne Logik dieser Vorgehensweise ähnelt einer hochwertigen Versicherung für das staatliche Regierungssystem: Die Versicherung wird möglicherweise nicht sofort in Anspruch genommen, aber wenn sich die Lage plötzlich verschlechtert, kann es zu spät sein, wenn man erst dann beginnt, die nötigen Maßnahmen zu treffen.

Naturgemäß hat diese Position ihre Kosten. Jack Clark warnt in seiner Zusammenfassung auch davor, dass jedes Design, das "Macht für zukünftige Krisen vorhält", die Gefahr birgt, von mächtigeren Regierungen neu interpretiert oder sogar erweitert eingesetzt zu werden. Die Tatsache, dass "diese Instrumente an sich nicht schwer sind", bedeutet nicht, dass sie in einer veränderten politischen Umgebung nicht zu schwereren Mitteln werden können. Daher besteht die eigentliche Schwierigkeit bei der "Radikalen Option" nicht nur darin, die Regierungsfähigkeit zu verbessern, sondern auch darin, die demokratische Legitimität, die Verfahrensregeln und die Grenzen der Machtmissbrauch zu wahren. In diesem Sinne ist es nicht einfach ein Artikel, der für eine stärkere Regulierung plädiert, sondern ein Entwurf für die Regierungsführung, der zeigt, wie ein Staat in einer unsicheren Zeit die Handlungsfähigkeit behalten kann, ohne von seiner eigenen Macht überwältigt zu werden.

2

Neuronale Computer, Super-AI

Während die obige Debatte noch auf der Ebene der "Regulierung der bestehenden AI" verbleibt, geht der Artikel "Neuronal Computers" von Forschern der Meta und der KAIST auf ein grundlegenderes Problem ein: Die Computer der Zukunft könnten völlig anders aussehen, als wir sie heute verstehen.

Der Artikel stellt eine kühne Vorstellung vor: Ein riesiges neuronales Netzwerk soll die traditionelle Computerarchitektur vollständig ersetzen und die Berechnung, den Speicher sowie die Eingabe und Ausgabe in einen "lernenden Laufzeitzustand" integrieren. Mit anderen Worten: In Zukunft brauchen Computer keine Windows-, macOS- oder andere Betriebssysteme mehr, sondern sind selbst ein neuronales Netzwerk, das alle Befehle direkt versteht und ausführt.

Dieser Artikel ist nicht nur wegen seiner revolutionären Idee, sondern auch wegen seiner Autoren bemerkenswert. Einer der Autoren, Juergen Schmidhuber, ist eine Legende in der AI-Branche. Vor mehreren Jahrzehnten hat er Konzepte wie Generative Modelle, Weltmodelle und Generative Adversarial Networks entwickelt, die heute zu den Grundpfeilern der Branche gehören. Jack Clark beschreibt die Idee des "neuronalen Computers" als "zu abwegig und zugleich zu einfach, um nicht richtig zu sein", auch wenn dafür weitaus mehr Rechenleistung und Daten erforderlich sind, als wir heute zur Verfügung haben.

Um diese Vorstellung einfacher zu verstehen, stellen Sie sich folgendes Szenario vor: Wenn Sie heute einen Computer benutzen, geben Sie Befehle über Maus und Tastatur ein, und das Betriebssystem steuert die Hardware an, um diese Befehle auszuführen. Die Vorstellung des neuronalen Computers ist es, diesen gesamten Prozess in eine "Schwarze Kiste" zu verpacken. Sie müssen sich nicht darum kümmern, ob es ein Windows, eine CPU oder einen Speicher gibt. Sie müssen nur sagen: "Schreibe mir ein Dokument" oder "Rechne mir eine Zahl aus", und der Computer gibt Ihnen direkt das Ergebnis. Innerhalb dieser "Schwarzen Kiste" gibt es kein traditionelles Betriebssystem. Stattdessen wird alles von einem riesigen, trainierten neuronalen Netzwerk - seinem "Gehirn" - berechnet.

Das Forschungsteam hat bereits erste Tests durchgeführt. Mit einem leistungsstarken Videogenerierungsmodell und sorgfältig ausgewählten Trainingsdaten haben sie zwei Prototypen eines neuronalen Computers erstellt: eine Befehlszeilenversion und eine grafische Benutzeroberfläche. In der Originalstudie wird beschrieben, dass die Befehlszeilenversion "die Fähigkeit erlernt hat, einfache Befehlszeilenworkflows zu rendern und auszuführen, in der Regel die Ausrichtung mit dem Terminalpuffer beizubehalten und die typischen Merkmale des täglichen Befehlszeilengebrauchs zu erfassen (z. B. schnelles Zurückscrollen, Zeilenumbruch bei Eingabeaufforderungen, Anpassung der Fenstergröße), obwohl die Symbolstabilität noch begrenzt ist". Die grafische Version zeigt hingegen Fähigkeiten, die näher an den alltäglichen Bedürfnissen liegen.

Naturgemäß ist dies nur der Anfang einer langen Reise. Jack Clark vergleicht den aktuellen Prototypen mit den ersten Flugversuchen der Gebrüder Wright: Es ist nur der Beginn einer viel weitergehenden Entwicklung. Aber an ihm kann man eine interessante Richtung erkennen: In Zukunft könnten alle Software nicht mehr in herkömmlicher Form existieren, sondern direkt in den Gewichten der neuronalen Netze leben. Wie die Studie beschreibt: "Der neuronale Computer weist auf eine neue Maschinengestalt hin - ein einzelner, lernender Laufzeitzustand fungiert als Computer selbst und steuert gleichzeitig Pixel, Text und Aktionen, umfassend alles, was heute von Betriebssystemen und Benutzeroberflächen bearbeitet wird. Ein solches System wäre extrem nützlich und völlig anders als die Systeme von heute, und seine Existenz könnte auch die Wahrscheinlichkeit erhöhen, dass wir in einer Simulation leben."

3

Rekursive Selbstverbesserung könnte einen wirtschaftlichen Explosionswachstum auslösen

Während der neuronale Computer eine potenzielle Revolution der Hardwareinfrastruktur darstellt, versucht eine Studie von Ökonomen, mit Daten eine andere zentrale Frage zu beantworten: Was passiert, wenn die AI in der Lage ist, sich selbst zu verbessern?

Forscher von Forethought, der Columbia University und der University of Virginia haben ein ökonomisches Modell entwickelt, um zu untersuchen, wie die rekursive Selbstverbesserung der AI - d. h. die Fähigkeit eines AI-Systems, seine eigene Weiterentwicklung zu automatisieren - die Makroökonomie beeinflussen wird. Ihr Ergebnis lässt sich mit einer einfachen Zahl zusammenfassen: 13%.

Nach den Berechnungen des Modells reicht es aus, wenn 13% der gesamten Branche automatisiert sind, um die gesamte Wirtschaft in einen Bereich des Explosionswachstums zu bringen. Wenn man den Bereich auf die Software- und Hardwareforschung beschränkt, reichen 17%. Genauer gesagt ist die Hardwareforschung der entscheidende Hebel - denn die Rendite der Hardwareforschung ist etwa fünfmal so hoch wie die der Software und zehnmal so hoch wie die der gesamtwirtschaftlichen Faktorproduktivität (TFP). Dies bedeutet, dass jeder automatisierte Durchbruch in der Chip-Design-Branche einen weit größeren Effekt hat als in anderen Bereichen. Allein 20% Automatisierung im Hardwarebereich reichen aus, um die Schwelle des Explosionswachstums zu überschreiten.

In diesem Prozess verstärken sich zwei positive Rückkopplungsschleifen gegenseitig. Die erste ist die technische Rückkopplungsschleife: Die automatisierte AI-Forschung kann bessere AI-Systeme hervorbringen, und bessere AI-Systeme können wiederum die Forschung effizienter automatisieren. Die zweite ist die wirtschaftliche Rückkopplungsschleife: Höhere Produktivität führt zu mehr verfügbaren Ressourcen, und diese Ressourcen werden wiederum in die Bereiche investiert, die das Wirtschaftswachstum antreiben. Sobald beide Schleifen gleichzeitig ausgelöst werden, entsteht ein schwer zu stoppender Beschleunigungseffekt.

In der Basissimulation des Modells würde ein "Automatisierungs-Schock" - beispielsweise die vollständige Automatisierung der Softwareentwicklung und 5% Automatisierung in anderen Wirtschaftssektoren - dazu führen, dass der "ökonomische Singularität" in etwa sechs Jahren eintritt. Die Forscher schreiben: "Empirisch gesehen hat die Produktivitätssteigerung in den Bereichen Software und Hardware in jüngster Zeit bereits einen außergewöhnlich hohen Tempo erreicht. Daher könnte der Übergang zu einem neuen Gleichgewichtswachstumspfad oder zu einem beschleunigten Wachstum ebenfalls sehr schnell erfolgen."

Die Forscher halten es für wichtig, das Maß der Automatisierung in der AI-Forschung zu verfolgen, genauso wichtig wie die Überwachung traditioneller makroökonomischer Indikatoren. Das Maß der Automatisierung in den Schlüssel-Forschungsbereichen kann als Frühwarnsignal für ein beschleunigtes Wachstum dienen, und dies sind Daten, die von den Ökonomen in AI-Unternehmen berechnet und öffentlich geteilt werden können. Die Studie erwähnt auch, dass es interessant ist, dass Anton Korinek, einer der Mitautoren dieser Studie, jetzt bei Anthropic arbeitet, wo Jack Clark ebenfalls tätig ist, und dass seine Studie und Clarks Artikel über die rekursive Selbstverbesserung am gleichen Tag veröffentlicht wurden - ohne dass beide zuvor von der Arbeit des anderen wussten. Dieser Zufall verleiht der Studie eine gewisse Dramatik.

4

Googles "Weltcomputer"-Projekt rückt näher

Verteilte Trainingsverfahren werden normalerweise eingesetzt, um Teilnehmer mit begrenzter Rechenleistung zu helfen, sich zusammenzuschließen und AI-Systeme zu trainieren. Die neueste Technologie von Google DeepMind, "Decoupled DiLoCo", zeigt jedoch, dass der gleiche Ansatz auch für die anderen Seite genutzt werden kann: Es ermöglicht es Technologie-Riesen mit riesigen Ressourcen, die verschiedenen Computer in globalen Rechenzentren zu einem "Weltcomputer" zu verbinden und so die größten Trainingsaufgaben gemeinsam zu bewältigen.

Der Kernpunkt dieser Technologie ist die asynchrone Trainingsmethode: Sie teilt die gesamte Trainingsaufgabe in unabhängige "Lernereinheiten" auf, die in verschiedenen Rechenzentren in unterschiedlichen Regionen verteilt sind. Selbst wenn in einem Rechenzentrum ein Chip ausfällt, können die anderen Lernereinheiten weiterhin arbeiten, und die gesamte Trainingsaufgabe wird nicht unterbrochen. Mit anderen Worten: Diese Technologie ist ein "verteiltes Trainingsframework, das die traditionelle einheitliche Clusterstruktur in unabhängige, asynchrone Lernereinheiten aufteilt, so dass die verschiedenen Lernereinheiten mit unterschiedlicher Geschwindigkeit arbeiten können und die globale Aufgabe auch bei Ausfall einzelner Knoten nicht beeinträchtigt wird".

In Experimenten hat Google mit dieser Technologie ein Gemma-Modell mit 12 Milliarden Parametern auf einem Rechencluster in vier US-Regionen erfolgreich trainiert. Dabei war nur eine Netzwerkbandbreite von 2 - 5 Gbps erforderlich - ein Niveau, das mit der bestehenden Internetverbindung zwischen Rechen