StartseiteArtikel

Übertrifft die Tradition um das 4200-fache! Das Eidgenössische Institut für Technologie in Zürich hat NOBLE vorgestellt, das erste neuronale Modellierungsframework, das mit menschlichen kortikalen Daten validiert wurde.

超神经HyperAI2025-11-05 18:33
Neuronale Operatoren mit bioinspirierten latenten Einbettungen

Ein Verbundteam aus der Eidgenössischen Technischen Hochschule Zürich, der California Institute of Technology und der Universität Alberta hat ein Deep-Learning-Framework namens NOBLE vorgeschlagen. Es ist das erste skalierbare Deep-Learning-Framework, dessen Leistung anhand von experimentellen Daten aus der menschlichen Großhirnrinde validiert wurde. Es ist erstmals gelungen, das nichtlineare dynamische Verhalten von Neuronen direkt aus experimentellen Daten zu lernen, und seine Simulationsgeschwindigkeit ist um das 4200-fache schneller als die herkömmlicher numerischer Solver.

Wie das menschliche Gehirn durch komplexe Schaltkreise aus Hunderten von Neuronen kognitive Funktionen formt, bleibt bis heute ein tiefgründiges Rätsel in der Lebenswissenschaft. In den letzten zehn Jahren haben Wissenschaftler mit der Akkumulation von multimodalen Daten wie Elektrophysiologie, Morphologie und Transkriptomik allmählich die bemerkenswerte Heterogenität menschlicher Neuronen in Bezug auf Genexpression, morphologische Struktur und elektrophysiologische Eigenschaften aufgedeckt. Doch wie diese Unterschiede den Informationsverarbeitungsprozess des Gehirns beeinflussen, beispielsweise der innere Zusammenhang zwischen spezifischer Genexpression und neurodegenerativen Erkrankungen, bleibt weiterhin ein ungelöstes Problem.

Traditionell haben Forscher oft Modelle auf der Grundlage von dreidimensionalen Mehrkompartiment-Partialdifferentialgleichungen (PDE) verwendet, um die Aktivität von Neuronen zu simulieren. Obwohl diese Modelle die biologische Wirklichkeit gut wiedergeben können, weisen sie einen fatalen Mangel auf: die extrem hohen Rechenkosten. Die Optimierung eines Modells für ein einzelnes Neuron kann etwa 600.000 CPU-Kernstunden in Anspruch nehmen, und geringfügige Änderungen der Parameter können leicht dazu führen, dass die Simulationsergebnisse stark von den experimentellen Daten abweichen. Noch wichtiger ist, dass diese deterministischen Modelle es schwer haben, die "innere Variabilität", die in Experimenten beobachtet wird, zu erfassen. Selbst bei identischen Eingaben kann dasselbe Neuron unterschiedliche elektrophysiologische Antworten zeigen. Und die künstliche Einführung von Zufall bringt oft nicht-mechanistische Störungen mit sich, was die Zuverlässigkeit der Modellvorhersagen weiter schwächt.

Angesichts dieser Herausforderungen hat ein Verbundteam aus der Eidgenössischen Technischen Hochschule Zürich, der California Institute of Technology und der Universität Alberta ein Deep-Learning-Framework namens NOBLE (Neural Operator with Biologically-informed Latent Embeddings) vorgeschlagen.

Das Innovative an diesem Framework ist, dass es das erste skalierbare Deep-Learning-Framework ist, dessen Leistung anhand von experimentellen Daten aus der menschlichen Großhirnrinde validiert wurde, und es erstmals gelungen ist, das nichtlineare dynamische Verhalten von Neuronen direkt aus experimentellen Daten zu lernen. Der Kernbruchdurch ist die Konstruktion eines einheitlichen "Neuralen Operators", der den kontinuierlichen latenten Raum von Neuronenmerkmalen auf eine Menge von Spannungsantworten abbilden kann, ohne dass für jedes Modell ein separates Ersatzsystem trainiert werden muss. In Tests an einem Datensatz von Parvalbumin-positiven (PVALB) Neuronen hat NOBLE nicht nur die subschwelligen und Entladedynamiken von 50 bekannten Modellen und 10 unbekannten Modellen genau wiedergegeben, sondern seine Simulationsgeschwindigkeit ist um das 4.200-fache schneller als die herkömmlicher numerischer Solver.

Die zugehörigen Forschungsergebnisse mit dem Titel "NOBLE - Neural Operator with Biologically-informed Latent Embeddings to Capture Experimental Variability in Biological Neuron Models" wurden für NeurIPS 2025 akzeptiert.

  • Link zur Publikation: https://go.hyper.ai/Ramfp

Datensatz: 60 HoF-Modelle, 250 Generationen evolutionärer Optimierung, 16 physiologische Parameter

Um die Wirksamkeit des NOBLE-Frameworks zu validieren, hat das Forschungsteam einen spezifischen Datensatz mit Parvalbumin-positiven (PVALB) Neuronen erstellt, der aus den Simulationsergebnissen biologisch realistischer Modelle menschlicher Cortexneuronen stammt. Diese Modelle wurden auf der Grundlage der NEURON-Simulationsumgebung mit einer "all active"-Ionenkanalkonfiguration erstellt und durch einen mehrzielorientierten evolutionären Optimierungsrahmen generiert, um die in Experimenten aufgezeichneten elektrophysiologischen Eigenschaften wiederzugeben.

Genauer gesagt enthält der Datensatz 60 HoF-Modelle, von denen 50 für das Training (In-Distribution-Modelle) und 10 als unbekannte Modelle für das Testen (Out-of-Distribution-Modelle) verwendet werden. Wie in der folgenden Abbildung gezeigt, wurde jedes Modell über 250 Generationen evolutionär optimiert (Evolutionary Optimization). Die Spannungsantworten unterschiedlicher Generationen wurden erfasst, und dann wurde die Kabelgleichung durch räumliche Diskretisierung in ein System gekoppelter gewöhnlicher Differentialgleichungen umgewandelt und gelöst. Schließlich wurde die Parameterkombination ausgewählt, die den durchschnittlichen z-Score-Fehler zwischen Simulation und experimentellen Eigenschaften minimiert.

Prozess der evolutionären Optimierung von Neuronen

Der Datenerzeugungsprozess verwendet eine zweistufige Optimierungsstrategie: Zunächst werden die passiven subschwelligen Antworten angepasst, und dann werden die aktiven Dynamiken oberhalb der Spikeschwelle und die vollständige Frequenz-Strom-Kurve erfasst. Die Zeitreihendaten wurden mit einem Zeitschritt von 0,02 ms über eine Dauer von 515 ms abgetastet. Nach einer dreifachen Zeitsubabtastung verblieben 8583 Zeitpunkte, was sowohl das Aliasing-Effekt vermeidet als auch die Rechenlast reduziert.

Wie in der folgenden Abbildung gezeigt, sind im Datensatz zusätzlich zu den Spannungsveränderungskurven 16 wichtige "physiologische Parameter" markiert, einschließlich morphologischer Anzeige (erste Zeile), experimenteller Spannungsverläufe (zweite Zeile), simulierte Spannungsverläufe (dritte Zeile), Spikesignaturen (vierte Zeile) und Frequenz-Strom-Kurven (fünfte Zeile). Dies bietet einen umfassenden Standard für die Bewertung von KI-Modellen. Diese Gestaltung ermöglicht es dem Datensatz, sowohl KI-Modelle zum Vorhersagen der neuronalen Reaktionen zu trainieren als auch die Qualität der Vorhersagen zu bewerten, was eine Integration von "Lehre, Übung und Test" ermöglicht.

Beispiele von HoF-Modellen verschiedener inhibitorischer Zelltypen

NOBLE: Ein FNO-gesteuertes und doppelt eingebettetes neuronales Operator-Framework

Die Kerninnovation des NOBLE-Frameworks liegt in der tiefgehenden Integration von neuronalen Operatoren und latenten Einbettungstechniken aus der Bioinformatik, um ein End-to-End-Abbildungssystem von neuronalen Merkmalen auf Spannungsantworten zu konstruieren, das bildlich als "neuronales Signalübersetzer" bezeichnet werden kann. Das Framework basiert auf dem Fourier-Neuronalen Operator (FNO) als unterliegender Architektur, dessen Vorteil darin besteht, dass es zeitliche und räumliche Zeitreihendaten der neuronalen Elektrophysiologie effizient verarbeiten kann. Der FNO bezieht sich auf die Idee der Audiowiedergabe, indem er die äquidistant abgetasteten elektrophysiologischen Signale im Frequenzbereich durch schnelle Fourier-Transformation analysiert, was ihn zu einem speziell für die Untersuchung neuronaler Dynamiken entwickelten Rechenwerkzeug macht.

Die "Übersetzungsfähigkeit" des Modells stammt aus zwei wichtigen Eingabe-Einbettungsdesigns: der Einbettung von neuronalen Merkmalen (neuron features) und der Einbettung von Strominjektionen (current injection).

Einbettungsstrategie von NOBLE

Für die erste Einbettung werden die Schwellstrom (Ithr) und die lokale Steigung (sthr), zwei Parameter mit klarer biologischer Interpretierbarkeit, als Kernmerkmale ausgewählt. Sie werden zunächst auf das Intervall [0,5, 3,5]² normiert und dann durch eine NeRF-ähnliche trigonometrische Codierung in einen Zeitreihenstapel umgewandelt, was dem Modell sozusagen ein "Hardwareparameterhandbuch" für die Neuronen liefert und dessen wichtige elektrophysiologische Eigenschaften klar definiert. Die zweite Einbettung verwendet eine Mehrfrequenz-Codierungsstrategie mit K = 9, die den eingegebenen Stromanregungsparametern entspricht. Wie in der folgenden Abbildung gezeigt, bilden die beiden Einbettungen nach dem Stapeln die Eingangskanäle, die es ermöglichen, dass die niedrigdimensionalen Merkmale effektiv mit der Frequenzbereichsverarbeitungsmethode des FNO übereinstimmen, was die Fähigkeit des Modells, die hochfrequenten Dynamiken neuronaler Signale zu erfassen, erheblich verbessert.

Einbettung von bestimmten neuronalen Merkmalen und Strominjektionen in NOBLE

In Bezug auf die Netzstruktur enthält NOBLE 12 versteckte Schichten, jede mit 24 Kanälen, und es werden 256 Fourier-Modi verwendet. Die Anzahl der Modellparameter beträgt etwa 1,8 Millionen, was gleichbedeutend mit der Konstruktion von gleichgroßen simulierten neuronalen Verbindungen ist. Der Trainingsvorgang bezieht sich auf die Strategie "Lehre auf individueller Grundlage": Der Adam-Optimierer wird mit einer anfänglichen Lernrate von 0,004 verwendet und in Kombination mit der ReduceLROnPlateau-Scheduling-Strategie eingesetzt. Die relative L4-Fehlerfunktion wird als Verlustfunktion verwendet, damit das Modell sowohl schnell die grundlegenden Regeln erlernen kann als auch die Lernrate automatisch anpassen kann, wenn es beim Training an einem Engpass angelangt. Im Vergleich zu herkömmlichen Methoden muss NOBLE keine separaten Proxy-Modelle für jedes Neuron trainieren, sondern es kann durch einen einzigen neuronalen Operator eine kontinuierliche Abbildung des gesamten neuronalen Modellsraums realisieren. Dies ermöglicht es ihm, durch Interpolation im latenten Raum neue neuronale Antworten mit biologischer Wirklichkeit zu generieren.

Darüber hinaus hat NOBLE die flexible Erweiterungsfähigkeit für "spezielle Verbesserungen" und unterstützt die physikalisch informierte Feinabstimmung für bestimmte elektrophysiologische Eigenschaften. Durch die Einführung einer gewichteten zusammengesetzten Verlustfunktion L(λ) kann einem Zielmerkmal (z. B. der Sag-Amplitude) ein höherer Gewichtsfaktor zugewiesen werden, um so die Modellierungsgenauigkeit der Schlüsselparameter präzise zu verbessern, ohne die Gesamtvorhersageleistung zu beeinträchtigen.

NOBLE kann die vielfältigen neuronalen Dynamiken korrekt erfassen und ist 4200-mal schneller als herkömmliche Solver

Um die Gesamteffizienz des NOBLE-Frameworks systematisch zu bewerten hat das Forschungsteam mehrere experimentelle Dimensionen um fünf Kernrichtungen herum entworfen, einschließlich Grundgenauigkeit, Generalisierungsfähigkeit, Rechenleistung, innovativer Generierungsfähigkeit und Validierung der Wirksamkeit der Kernmodule. Die Experimente verwenden 50 HoF-Modelle von Parvalbumin-positiven (PVALB) Neuronen als Haupttrainingsdaten, und die Vorhersagegenauigkeit des Modells wird durch den relativen L2-Fehler und mehrere wichtige elektrophysiologische Parameter quantifiziert.

In Bezug auf die Grundgenauigkeit (In-Distribution-Test) zeigt NOBLE immer noch eine ausgezeichnete Vorhersagefähigkeit für Strominjektionssignale, die nicht am Training teilgenommen haben, mit einem relativen L2-Fehler von nur 2,18%. Darüber hinaus haben die Forscher, wie in der folgenden Abbildung gezeigt, die Spannungsverläufe von experimentellen Daten, PDE-Simulationen und NOBLE-Vorhersagen bei einer Strominjektion von 0,1 nA und -0,11 nA verglichen. Die Ergebnisse zeigen, dass die PDE-Simulationen mit den experimentellen Aufzeichnungen stark übereinstimmen, und der Unterschied zwischen den NOBLE-Vorhersagen und den PDE-Simulationen ist minimal, was zeigt, dass NOBLE die Genauigkeit der numerischen Solver wiederholt und die wichtigen physiologischen Dynamiken zuverlässig erfasst.

F-I-Kurven von NOBLE-Vorhersagen und Spannungsverläufe von experimentellen Daten, PDE-Simulationen und NOBLE

In der Evaluierung der Generalisierungsfähigkeit (Out-of-Distribution-Test) zeigt NOBLE immer noch eine hohe Vorhersagegenauigkeit bei 10 unbekannten HoF-Modellen. Das Forschungsteam hat es außerdem auf Daten von Vasoaktivem Intestinalem Peptid (VIP)-Interneuronen angewendet und ebenfalls stabile Ergebnisse erhalten. Dies zeigt, dass NOBLE nicht einfach die Merkmale des Trainingsdatensatzes auswendig lernt, sondern tatsächlich die elektrophysiologischen Regeln über verschiedene Zelltypen hinweg versteht.

In Bezug auf die Rechenleistung zeigt NOBLE eine bahnbrechende Geschwindigkeitsvorteil. Die Testergebnisse zeigen, dass die Vor