StartseiteArtikel

Jenseits von Agenten und Weltmodellen hat das Meta-Team den "Neuronalen Computer" vorgeschlagen.

账号已注销2026-04-10 21:51
Erreichen Sie die Einheit von Berechnung, Speicher und I/O.

Kürzlich hat ein Forschungsteam von Meta AI und KAUST eine neue Maschinenform vorgeschlagen: Neurale Computer. Dieses Konzept versucht, die grundlegenden Beschränkungen aktueller KI - Systeme auf der Ausführungsebene zu überwinden: Die Trennung von Modell und Rechenumgebung.

Die bestehenden KI - Agenten oder Weltmodelle verfügen zwar über starke Vorhersage - und Planungsfähigkeiten, aber der Kernzustand der Ausführung muss immer noch von externen Betriebssystemen, Interpretern oder Simulatoren getragen werden. Dies führt dazu, dass die Rechenleistung des Modells durch die externe Umgebung eingeschränkt wird.

Der neuronale Computer zielt darauf ab, diese Beschränkung zu überwinden. Anstatt das Modell als Aufrufebene externer Tools zu verwenden, macht er es möglich, dass das Modell selbst direkt ein lauffähiger Computer wird, indem es Berechnung, Speicher und E/A in einem einzigen Laufzeitzustand innerhalb des neuronalen Netzwerks vereinigt.

Link zur Studie: https://arxiv.org/abs/2604.06425

Warum brauchen wir neuronale Computer?

In der gegenwärtigen Computerarchitektur vertrauen traditionelle Computer auf die physische Trennung von Berechnung, Speicher und Eingabe/Ausgabe und führen den Ausführungsprozess über explizit geschriebene Programmbefehle aus. KI - Agenten setzen die erlernten Modelle auf externe Softwareumgebungen und erreichen die Aufgabenziele, indem sie vorhandene Schnittstellen bedienen oder aufrufen. Das Modell selbst trägt jedoch keinen ausführbaren Zustand, und der Fortschritt und das Ergebnis der Aufgabe werden immer noch vom Betriebssystem oder der Anwendung verwaltet. Weltmodelle können zwar die Trends der Umweltentwicklung lernen und vorhersagen, aber ihr Schwerpunkt liegt auf der Schätzung der zukünftigen Umweltzustände, nicht darauf, dass das Modell selbst als Träger der Ausführungsberechnung fungiert.

Bei diesen drei Systemen besteht die gemeinsame Beschränkung darin, dass der ausführbare Zustand immer außerhalb des Modells liegt. Genau angesichts dieser Lücke auf der Architekturebene wurde das Konzept des neuronalen Computers vorgeschlagen. Ziel ist es, Berechnung, Speicher und Eingabe/Ausgabe in einem einzigen Laufzeitzustand innerhalb des Modells zu vereinigen, sodass das Modell selbst die Rolle eines laufenden Computers übernimmt.

Der Weg zum vollständigen neuronalen Computer

Der Kern des neuronalen Computers liegt in der Einführung eines völlig neuen abstrakten Konzepts: Die Vereinigung von Berechnung, Speicher und Eingabe/Ausgabe (E/A) in einem erlernten latenten Raumlaufzeitzustand. Das Ziel dieser Forderung ist es, die Architektur grundlegend zu verändern, sodass das Modell selbst der laufende Computer wird.

Derzeit haben die Prototypen von NC auf der Grundlage von Befehlszeilen - und grafischen Benutzeroberflächen die Machbarkeit dieses Ansatzes bereits vorläufig bestätigt. Sie haben erfolgreich die E/A - Anpassung, die kurzfristige Steuerung und die messbare Schnittstellenfidelity erreicht. Aber es besteht immer noch ein erheblicher Abstand zum echten universellen Computer, da Routinenwiederverwendung, universelle Ausführungsfähigkeit und Verhaltenskonsistenz noch nicht beherrscht werden.

Im Vergleich zu traditionellen Computern liegt der grundlegende Unterschied in Architektur und Programmierweise. Auf der Architekturebene instanziieren traditionelle Computer lokale, kombinierte symbolische Semantik, während neuronale Computer eine ganzheitliche, verteilte numerische Semantik realisieren. Auf der Programmierebene wird die Sprachsemantik von traditionellen Computern von Menschen explizit entworfen, während die Semantik von neuronalen Computern die Bedeutung der vom Benutzer eingegebenen Sequenzen ist, die aus Daten gelernt wird.

Als langfristiges Ziel dieses Konzepts ist der vollständige neuronale Computer (CNC) die reife Form des neuronalen Computers. Er muss die vier strengen Bedingungen Turing - Vollständigkeit, universelle Programmierbarkeit, Verhaltenskonsistenz und maschineninhärente Semantik erfüllen.

Abbildung | Interpretation der vier Operationen, die für einen vollständigen neuronalen Computer erforderlich sind.

Um die einzigartige Position von NC im Rechenspektrum zu klären, hat das Forschungsteam es mit anderen Systemobjekten verglichen: Traditionelle Computer führen explizite Programme aus, KI - Agenten bedienen externe Ausführungsumgebungen, Weltmodelle sind nur für die Vorhersage der Umweltentwicklung zuständig, und das Besondere des neuronalen Computers besteht darin, dass er die Laufzeit selbst direkt als Computer ansieht.

Abbildung | Vergleich der vier Systemobjekte auf der gemeinsamen Systemebene.

Um vom aktuellen NC - Prototypen zum CNC zu gelangen, hat das Forschungsteam einen wichtigen technologischen Roadmap geplant, um die Beschränkung des Kontextfensters zu überwinden, indem es einen unbegrenzten effektiven Speicher realisiert. Es ist erforderlich, kombinierbare und wiederverwendbare kombinatorische neuronale Programme zu erstellen und auf der Architekturebene die Inferenzausführung und die Parameteraktualisierung klar zu trennen, um "Laufzeit" und "Aktualisierung" zu trennen. Gleichzeitig sollte man sich an interaktive E/A - Trajektorien als Haupttrainingsdaten halten, damit das System die zugrunde liegende Rechenlogik durch reale Interaktionen lernt.

Abbildung | Die Beziehung zwischen Mensch und Computer hat sich von traditionellen Computern über die Agent - Ära hin zum neuronalen Computer entwickelt.

Traditionelle Computer werden direkt verwendet; in der heutigen Agent - Architektur ist der Agent für die Koordination vorhandener Computerressourcen verantwortlich, während das Weltmodell als parallele Vorhersageebene fungiert. Neurale Computer (NCs) bemühen sich, diese verteilten Funktionen in eine einzige Lernlaufzeitumgebung zu integrieren. In diesem Sinne kommt die Motivation für die Entwicklung von neuronalen Computern nicht von der externen Ersetzung bestehender Architekturen, sondern von der Vereinigung verteilter Funktionen in einer einzigen Lernmaschine. Der vollständige neuronale Computer (CNC) ist die reife und universelle Implementierungsform dieser Maschinenform.

Diskussion und Ausblick

Obwohl der aktuelle Prototyp des neuronalen Computers bereits eine vorläufige Laufzeitfähigkeit gezeigt hat, stehen noch viele Herausforderungen im Weg der Praxistauglichkeit. Die am deutlichsten sichtbaren Beschränkungen liegen darin, dass das Modell in Bezug auf stabile Wiederverwendbarkeit, symbolische Zuverlässigkeit und Laufzeit - Governance - Mechanismen noch nicht ausgereift ist. Das Fehlen dieser Fähigkeiten beschränkt seine Entwicklung von isolierten Demonstrationen zu einem echten einsatzfähigen Laufzeitsystem.

Um die Vision des vollständigen neuronalen Computers zu verwirklichen, hat das Forschungsteam einen detaillierten Roadmap erstellt, der Dimensionen wie Effizienz, Berechnung und Inferenz, Speicher und Speicherung, E/A und Steuerung, Werkzeugbrücken, bedingte Generalisierung, Programmierbarkeit und Artefakterzeugung abdeckt.

Der Fortschritt der Entwicklung von neuronalen Computern hängt nicht nur von einem verbesserten theoretischen Modell ab, sondern vor allem davon, ob die Wiederverwendbarkeit, Konsistenz und Governance - Mechanismen kontinuierlich validiert werden können. Wenn diese technologischen Barrieren kontinuierlich überwunden werden, wird der neuronale Computer nicht länger auf isolierte Experimente beschränkt sein, sondern könnte eine ideale Kandidatenform für die nächste Generation von Computern werden.

Dieser Artikel stammt aus dem WeChat - Kanal "Academic Headlines" (ID: SciTouTiao), Autor: Academic Headlines, veröffentlicht von 36Kr mit Genehmigung.