Zhineng nutzt Rust, um die Basis zu rekonfigurieren und die Sicherheitsbedenken der chinesischen Technologieinnovation zu lösen.
Die "doppelte Engstelle" der Xinchuang - Rechenleistung: Abhängigkeit auf der untersten Ebene und Engpässe bei der Datenverschiebung
Angesichts des globalen Wettbewerbs um Rechenleistung und der Beschleunigung der nationalen Ersetzung stehen die Xinchuang - Szenarien zwei strukturellen Herausforderungen gegenüber. Auf der Sicherheitsebene sind Basissoftware wie Betriebssystemkerne, Datenbankengines, Browser - Rendering - Pipelines und AI - Entwicklungstoolketten langfristig von ausländischen Technologiestapeln abhängig. In hoch sicheren Szenarien wie Geheimdienst, Verwaltung und Finanzwesen führt die übermäßige Abhängigkeit von Drittanbietern dazu, dass die Angriffsfläche schwer zu reduzieren ist, und die Sicherheit und Zuverlässigkeit des Systems kann nicht ausreichend gewährleistet werden. Nehmen wir als Beispiel den Betriebssystemkern: In traditionellen Kernen, die in C/C++ geschrieben sind, machen Sicherheitslücken im Speicher über 70 % aus. Mängel wie Pufferüberläufe, Use - After - Free und Datenkonflikte sind anhaltende Sicherheitsrisiken. Auf der Leistungsebene gibt es in der traditionellen Architektur zwischen Dateisystem, Datenbank und Netzwerkprotokollstapel mehrere Ebenen von Speicherkopien. Bei der Training und Inference von großen AI - Modellen und in Supercomputer - Szenarien wird der Aufwand für die Datenverschiebung zu einem signifikanten Engpass, der die IO - Effizienz einschränkt. Dieses strukturelle Problem macht es schwierig, mit einer Einzelpunkt - Ersetzung ein evolvierbares nächstes Rechensystem zu bilden. Die Branche braucht dringend eine Gesamtumgestaltung von Kern, Speicherbus bis hin zu Desktop - und AI - Toolketten.
Das Full - Stack - Rust - Konzept: Ein eigenständiges Rechensystem von Mikrokern bis AI - IDE
Wuhan Zhineng Technology Co., Ltd. (im Folgenden "Zhineng Technology" genannt) versucht, von der Perspektive eines Full - Stack - Ansatzes, der vom Mikrokern, über die Speicherdatenbank, das 3D - Browser - Betriebssystem, die AI - IDE bis hin zu großen Modellen reicht, mit der Programmiersprache Rust als Kern das Rechenfundament für die AI - Ära neu zu gestalten.
Der unterste, minimal kombinierbare Rust - Mikrokern - Frameworks (RMKF) verwendet ein äußerst minimalistisches Design mit NoSTD - Native und bedingter Kompilierung von STD. Der Kern des Mikrokerns hängt nur von Spinlocks als einzigem Synchronisationsprimitiv ab und ersetzt die dynamische Laufzeit - Dispatching durch statische generische Dispatching mit Nullkosten - Abstraktion. Der Mikrokern unterstützt derzeit die drei CPU - Architekturen x86_64, aarch64 und riscv64. Über die Definition der Hardware - Abstraktionsschicht (HAL) - Traits und die bedingte Kompilierung von Cargo - Features wird die architekturanabhängige Kernlogik realisiert. Jede Architektur hat eine unabhängige Implementierung von atomaren Operationen und Linkerskripte. In Bezug auf die Sicherheit implementiert RMKF ein feingranulares Zugriffskontrollsystem, das auf dem Capability - Modell von seL4 basiert. Es ist unverfälschbar, ableitbar, aber die Berechtigungen können nur reduziert werden und können widerrufen werden. Es deckt alle Ressourcentypen wie Prozesse, Threads, Speicher, Kanäle, Geräte und Interrupts ab. Der Mechanismus der Generation - Inkrementierung von Capability - Tokens kann Replay - Angriffe abwehren. In Bezug auf die Synchronisationsprimitive implementiert RMKF vierzehn Synchronisationsprimitive, darunter Spinlocks, Read - Write - Locks, Mutexes, Bedingungsvariablen, Semaphore, Ereignisse, Barrieren, Sequentiallocks, Ticket - Locks und MCS - Locks. Das Read - Write - Lock verwendet eine Schreibpriorität und unterstützt die Lock - Degradation. Das Sequentiallock ermöglicht das Lesen ohne Lock, und das MCS - Lock ist für die NUMA - Architektur optimiert. Die Sidecar - Architektur schafft eine sichere Brücke zwischen dem Kernel - und dem Benutzer - Modus, unterstützt die Plug - in - Erweiterung, den Ereignisbus und das Service - Registrierungszentrum und bietet ein effektives Mechanismus für die Beobachtbarkeit des Kerns und die Sicherheitsüberwachung. Bei den Tests integriert RMKF den Kani - Formalverifikator, um mathematische Beweise für die sicherheitskritischen Pfade zu führen. Gleichzeitig werden über fünfzig libFuzzer - Fuzz - Testziele eingesetzt. Im Speichermanagementmodul wurden nach 72 - stündigen kontinuierlichen Fuzz - Tests keine Mängel gefunden, und die Kernmodule haben insgesamt über tausend Unit - Tests bestanden.
Auf der Datenebene hat Zhineng Technology die verteile Lichtverbindungs - Speicher - Heap - Graph - Objektdatenbank (LightField) selbst entwickelt, die das NoSQL -, Graph - und Objektmodell in einer reinen Speicher - Heap - Architektur vereinigt. LightField verwendet ein hexagonales Design basierend auf der Domain - Driven - Design - Methode und besteht aus 37 Sub - Crates. Die Kernschicht realisiert eine reine Speicherberechnung ohne I/O und Netzwerkabhängigkeit. Der Kern liegt in einem Kompilierungszeit - Speicherlayout - Validierungsframework. Durch den derive - persist - Prozess - Makro werden das Speicherlayout, die Ausrichtungsbeschränkungen und die Zeigerverschiebungen aller Datenstrukturen zur Kompilierungszeit validiert. Die RelPtr - Technologie stellt sicher, dass die Zeiger auch nach der freien Bewegung der Daten zwischen Speicher und Festplatte noch gültig sind, und realisiert das Paradigma der Null - Serialisierung - Persistenz, bei dem "Speicher gleich Datenbank" ist. Die SIMD - Vektorisierung der Graphtraversierung beschleunigt die BFS - und DFS - Algorithmen mithilfe von CPU - Vektor - Befehlen. Das Epoch - Based - Reclamation ermöglicht die lockfreie Speicherbereinigung. Auf der Transportebene implementiert LightField die Lichtübertragungs - Abstraktionsschicht (OTA), die die vier Transport - Backends RDMA, Lichtschalter, DPDK und TCP einheitlich abstrahiert, die Verwaltung der Lichtwegschaltung und die Null - Kopier - Übertragung unterstützt und auf Datenbankebene die native Unterstützung für Lichtverbindungs - Datencentren bietet. Die verteilten Fähigkeiten umfassen die Raft - und Paxos - Konsensusalgorithmen, die Zwei - und Drei - Phasen - Commit - verteilten Transaktionen, die Sharding - Verwaltung mit Graph - Topologieoptimierung und die überregionale Katastrophenwiederherstellung. Die aktuelle Version von LightField hat 555 Unit - Tests und 40 Benchmark - Tests bestanden und ist produktionsbereit.
Die Anwendungs Ebene umfasst zwei Kernprodukte: das 3D - Browser - Betriebssystem (OmniVerse) und die AI - IDE. OmniVerse ist nicht darauf ausgelegt, "Anwendungen im Browser auszuführen", sondern der Browser ist das Betriebssystemgehäuse, das Desktop - und Fenstersystem. Beim Starten des Computers gelangt man direkt in den Mikrokern, und wenn man den 2D - und 3D - einheitlichen Engine - Browser startet, gelangt man in den 3D - Raum - Desktop. Der Kern ist das Hybrid - Objektmodell (HOM), das das DOM und das 3D - Szenegraph in eine einheitliche Hierarchiestruktur vereinigt. HTML - Elemente und 3D - Netzwerkelemente stehen auf gleicher Ebene und teilen sich dasselbe Ereignissystem, Stilsystem und Skriptsystem. In Bezug auf die Rendering - Pipeline implementiert OmniVerse das PBR - Materialsystem, das Laden von glTF - Modellen, die GPU - Clipping, die IBL - Umgebungsbeleuchtung, die Instanzierung - Rendering und die Skelettanimation. Im erweiterten Rendering - Modul werden fortschrittliche Technologien wie Nanite - ähnliche virtuelle Geometrie, Lumen - ähnliche globale Beleuchtung und Gauss - Sputter - Rendering integriert. Die AI - native Entwicklungs - Toolkette unterstützt die end - to - end - Generierung von natürlicher Sprache in 3D - Szenen. Wenn ein Benutzer "Erstelle einen roten Sofa" eingibt, wird nach der Intentionenerkennung und Codegenerierung der Code per Hot - Reload injiziert, und das Objekt erscheint im Szenario innerhalb von fünf Sekunden. Das Raum - Eingabesystem abstrahiert VR, Controller, Gesten und Augenbewegungserkennung einheitlich zu Raumereignissen. Die WebRTC - Mehrbenutzer - Zusammenarbeit unterstützt die Pose - Synchronisation und die Objektbesitzverwaltung. Das Cloud - Rendering - Modul ermöglicht es auch niedrigwertigen Geräten, hochwertige 3D - Szenen auszuführen, indem es die GPU - Instanzierung und den Videostream - Push nutzt.
In Bezug auf die AI - IDE hat Zhineng Technology eine Sieben - Phasen - Pipeline von der Anforderungsdefinition bis zur Detailplanung entworfen. Jede Projektphase wird von einer speziellen AI - Rolle übernommen, und der Mensch behält immer die endgültige Entscheidungsgewalt. Die IDE verwendet eine Multi - Modell - Kompositarchitektur. In der Anforderungsphase wird ein Modell verwendet, das gut in der natürlichen Sprachverarbeitung ist. In der Architekturphase wird ein Modell verwendet, das gut in der Systemplanung ist. In der Codierungsphase wird ein Modell verwendet, das gut in der Codegenerierung ist. Jede AI - Instanz wird unabhängig erstellt und nach Abschluss der Use - Case - Aufgabe zerstört, was effektiv das Problem der semantischen Drift und Halluzinationen, die durch lange Kontexte großer Modelle verursacht werden, löst. In der Entwurfsphase wird strikt verboten, konkreten Programmiersprachecode zu verwenden. Stattdessen werden abstrakte Darstellungen wie AST - Syntaxbäume und Datenflussdiagramme verwendet, um eine echte Entkopplung zwischen Geschäftslogik und Implementierungstechnologie zu erreichen.
Auf der Methodologieebene hat Zhineng Technology das einheitliche Prozessrechnungsmodell (UPCM) vorgeschlagen, das das ereignisgesteuerte Prozessnetzwerk als einheitliche Abstraktionsschicht verwendet und die oberen Geschäftsanwendungen und die unteren Systemsoftware in dasselbe Modellierungs - Paradigma einbezieht. Das Modell definiert ein Vierer - Tupel aus Ereignissen, Aktivitäten, Objekten und Übergangsregeln, stellt die Spezifikationen für die Dateninteraktion zwischen Teilmengen und Obermengen sowie ein vierdimensionales System zur erschöpfenden Klassifizierung von Ausnahmen auf. Die Abbildung vom Prozessmodell auf ausführbaren Code ist als mechanischer Übersetzungsprozess konzipiert. Große Modelle führen nur vier Arten von Operationen aus: Abbildung, Übersetzung, Generierung und Reparatur, und nehmen nicht an eigenständigen Innovationsentscheidungen teil. In der praktischen Validierung konnte das UPCM - Verfahren das Speicherleckproblem, das mit der TRAE+DDD+GLM - Methode in drei Monaten und der Claude Code+TDD+Claude - 4.5 - Methode in einem Monat nicht gelöst werden konnte, bei der Entwicklung der Single - Node - Version der Speicher - Heap - Graph - Objektdatenbank ChinaCoreDB innerhalb von zwei Wochen lokalisieren und beheben. Nach der Reparatur zeigte die Valgrind - Prüfung keine Fehler, und die 48 - stündige Alterungstest war stabil.
Auf der Modell Ebene implementiert Zhineng Technology die Training und Inference von großen Modellen für die "Ganzhirn - Quantifizierungssimulation" rein in Rust. Es verwendet einen fraktalgeometriebasierten neuronalen Wachstumsalgorithmus, um die Vorurteile der a priori - Struktur des "manuellen Designs der Schichten" in der Deep Learning zu ersetzen. Mit dem Stammzell - Entwicklungsmodel wird die end - to - end - Entwicklungssimulation von Grundstammzellen bis zum Ganzhirnstruktur realisiert, und mit dem verteilten Zellgedächtnismechanismus wird jeder Neuron als unabhängiger Gedächtnisträger modelliert. Dieses Projekt zielt darauf ab, Modelle mit geringem Ressourcenverbrauch und hoher Interpretierbarkeit für hochwertige Szenarien wie Medizin und Finanzen bereitzustellen.
Auf der Sicherheitsplattform entwickelt Zhineng Technology gleichzeitig die Taiji - Einheitliche Sicherheitsplattform, die über 30 Arten von Netzwerkprotokollanalysen, AI - gestützte Bedrohungserkennung, das Zero - Trust - Sicherheitsmodell und die MITM - Proxy - Fähigkeiten integriert und für die Xinchuang - Szenarien eine Full - Stack - Sicherheitsbeschützung von der Netzwerkebene bis zur Anwendungs Ebene bietet.
Auf der Hardware - Anpassungsebene plant Zhineng Technology die native Treiberentwicklung und die gemeinsame Optimierung um die nationalen CPU und GPU und arbeitet mit nationalen SSD - Herstellern zusammen, um die Optimierung des Speicherstapels voranzutreiben und eine vertikale Verbindung von Chip bis Systemsoftware herzustellen. Derzeit sind die Kernmodule wie Mikrokern - Kompatibilität, verteilte Speicherdatenbank, 3D - Browser - Rendering, Desktop - Umgebung, Hardware - Virtualisierungsteilung und Rechenleistung - Retail - Plattform alle mit X86 - Hardware validiert und können demonstriert werden.
Open - Source - Ökosystem und Kommerzialisierung
Zhineng Technology verfolgt eine Entwicklungsstrategie von "Open - Source zuerst, Ökosystem - getrieben". Derzeit hat es die Dokumentation zur Fehlerbehandlungsdesignmethode der AI - IDE auf GitHub unter der CC BY - NC - SA 4.0 - Lizenz veröffentlicht, die Inhalte wie das vierdimensionale Fehlerklassifizierungssystem, die formale Fehlercode - Spezifikation und das Fehlerwiederherstellungsdesignmuster umfasst. Später werden die Mikrokern - SDK, die Single - Node - Version der Datenbank und das 3D - Web - SDK und andere Basis - Komponenten nacheinander Open - Source gemacht, um den globalen Rust - Entwicklern direkt wiederverwendbare unterste Ebenen - Fähigkeiten bereitzustellen. Die Open - Source - Veröffentlichung der Single - Node - Version der ChinaCoreDB - Datenbank zielt darauf ab, die Einstiegshürde für Graphdatenbanken zu senken. Das derive - persist - Kompilierungszeit - Persistenzframework kann die Infrastruktur für jedes Rust - Projekt bereitstellen, das Null - Serialisierungsspeicher benötigt. Die öffentlichen APIs des RMKF - Mikrokerns werden schrittweise über Feature - Gates geöffnet, um die Kern - Intellektuelleigentumsrechte zu schützen und gleichzeitig das Open - Source - Ökosystem zu fördern.
In Bezug auf die Kommerzialisierung verfolgt Zhineng Technology eine gestufte Strategie von "erst Eigenfinanzierung, dann Plattform". Kurzfristig werden Rechenleistung - Retail - und Datenbank - Lizenzierungsdienste für kleine und mittlere Unternehmen und AI - Entwickler angeboten, um die Nachfrage schnell zu validieren und Einnahmen zu erzielen. Mittelfristig werden private Bereitstellungen und Gesamtlösungen für hoch sichere Märkte wie Xinchuang, Verwaltung, Finanzwesen und Energie angeboten, und die Anpassung und Optimierung für nationale CPU, GPU, Schalter und SSD werden schrittweise vervollständigt. Langfristig wird die LightField - verteilte Plattform als Kern genommen, und durch die WASM - Priorität und die Code - First - Strategie wird eine neue Generation von Rechenzugangsplattformen für die AI - Ära geschaffen, und ein Betriebssystem - und Datenbank - Ökosystem für globale Entwickler aufgebaut. Das HOM - Hybrid - Objektmodell von OmniVerse plant die Förderung von Standards. Diese Open - Source - Maßnahmen zielen darauf ab, mehr Entwickler und Forscher zu beteiligen und eine Full - Stack - Rust - Technologie - Community von der unteren Systemebene bis zur oberen Anwendungs Ebene zu bilden.
In Bezug auf die Anwendungsimplementierung hat Zhineng Technology eine kleine - Skala - Validierung von medizinischer AI in einem drittklassigen Krankenhaus abgeschlossen und wurde in die relevanten typischen Fälle des Ministeriums für Industrie und Informationstechnologie aufgenommen, was eine Referenz für die nachfolgende Replikation in hoch sicheren Szenarien bietet. Der Gründer von Zhineng Technology hat lange Zeit an Systemengineering und Sicherheitsdesign in hoch sicheren Szenarien gearbeitet. Das Team verfolgt eine Full - Stack - Eigenentwicklung mit "keine externe Abhängigkeit, keine technische Outsourcing". Das Unternehmen hat über 2000 Kernpatente aufgelistet und plant, in