Hundert Jahre des Hirn-Komputer-Interfaces
„Können Sie sich vorstellen, einen Computer mit dem Gedanken zu steuern?“
Die Szene, die einst nur in Science-Fiction-Romanen existierte, wird heute zur Realität.
Im Juni 2025 stand Elon Musk auf der Pressekonferenz von Neuralink und kündigte eine Reihe neuer Technologien an: Sieben Patienten, denen ein Hirn-Computer-Interface implantiert wurde, konnten nur mit der Kraft des Geistes tippen, Spiele spielen und sogar Roboterarme steuern. Unter ihnen konnte Alex, der seit Jahren gelähmt war, mit Gehirnsignalen den Roboterarm des Tesla Optimus anweisen, ihm Wasser einzuschenken.
Aber wie war all dies möglich?
Wenn wir uns ein Jahrhundert zurückversetzen, beginnt das Gespräch zwischen Gehirn und Maschine schon lange stillschweigend. Im Jahr 1924, als Hans Berger erstmals Gehirnwellen aufzeichnete, hätte er vielleicht nicht gedacht, dass diese schwachen elektrischen Stromschwankungen ein Jahrhundert später eine neue Sprache für die Mensch-Maschine-Interaktion werden würden.
Der Weg von der zufälligen Entdeckung im Labor bis hin zur heutigen „Telepathie“ war kein leichter.
1920 - 1970: Entdeckung und Erforschung der Gehirnwellen
Der Ursprung aller großen Technologien ist oft unbedeutend. Vor der Entstehung von Computern und KI begann die Erforschung des Hirn-Computer-Interfaces mit einer noch grundlegenderen Frage: Was ist eigentlich ein Gedanke? Einige Pioniere vermuteten, dass es vielleicht mit Elektrizität zu tun habe.
Im Jahr 1924 in der Psychiatrischen Klinik der Universität Jena in Deutschland.
Dr. Hans Berger starrte auf den Jungen im Krankenbett und justierte vorsichtig die Elektroden mit zwei in die Kopfhaut des Patienten eingeführten Silberdrähten. Diese in Salzlösung getränkten Metallplatten waren mit einem sperrigen Oszilloskop verbunden, das die schwachen elektrischen Stromschwankungen aufzeichnete.
„Siebter Versuch, Spannung 12 Mikrovolt …“ notierte er leise.
Innerhalb von fünf Jahren führte Berger unzählige Experimente durch, sammelte über 1.000 Gehirnwellenaufzeichnungen und führte sogar Experimente an sich selbst und an seinem Sohn durch.
Zur damaligen Zeit war die allgemeine Meinung in der Wissenschaft, dass das Gehirn rein biochemisch funktioniere und es keine messbaren elektrischen Signale gäbe. Bergers Beharrlichkeit wurde als Pseudowissenschaftlichkeit angesehen.
Endlich 1929 wurde seine Dissertation „Über die Anwendung der Elektroenzephalographie beim Menschen“ veröffentlicht. Die regelmäßigen Signale, die als Alpha- und Beta-Wellen bezeichnet wurden, bewiesen erstmals der Welt: Die elektrische Aktivität des Gehirns ändert sich mit dem psychischen Zustand des Menschen, und menschliche Gedanken können von Instrumenten erfasst werden.
Dennoch wurde Bergers Entdeckung von der Wissenschaftsgemeinschaft als Ketzerismus angesehen, und er erhielt bis zu seinem Tod nicht die Anerkennung, die er verdiente. Aber seine Beharrlichkeit eröffnete schließlich ein neues Gebiet für die Neurowissenschaft.
Aber was können diese schwachen und ungeordneten Gehirnwellen eigentlich vermitteln? Und wie können sie entschlüsselt werden?
Um das Geheimnis der Gehirnwellen zu entschlüsseln, führten die Wissenschaftler Jahrzehnte lang Experimente an Tieren durch, bevor sie Elektroden in das menschliche Gehirn implantieren konnten.
Im Jahr 1969 bewegte erstmals ein Gehirnneuron eines Affen den Zeiger eines Strommessers. Dies war das erste Mal in der Geschichte, dass Gehirnsignale direkt in Maschinenbefehle umgewandelt wurden. Das Experiment von Eberhard Fetz bewies, dass das Gehirn lernen kann, externe Geräte zu steuern, ähnlich wie es seine eigenen Gliedmaßen steuert.
Aber die Frage blieb: Können menschliche Gehirne das auch?
1970 - 2000: Entstehung des Hirn-Computer-Interfaces im Labor
Im Jahr 1973 führte der Forscher Jacques J. Vidal von der University of California, Los Angeles, in seiner Dissertation „Toward Direct Brain-Computer Communication“ erstmals offiziell den Begriff „Hirn-Computer-Interface“ (BCI) ein.
Bei den Experimenten trugen die Probanden eine EEG-Elektrodenkappe. Indem sie auf das blinkende Licht auf dem Bildschirm schauten, wurden die spezifischen visuell evozierten Potentiale (VEP) des Gehirns von einem Computer erfasst und erkannt, um anschließend einen virtuellen Cursor in einem Labyrinth zu bewegen.
Dieser Prozess war zwar langsam, aber es wurde erstmals bewiesen: Der menschliche Wille ist wie ein Morsecode und kann ohne Muskeln und Nerven direkt in Maschinenbefehle umgewandelt werden.
Aber die BCI-Forschung in dieser Phase war hauptsächlich theoretischer Natur und es hatte noch kein vollständiges, praktikables Technologiesystem gegeben. Die EEG-Signale, die durch den Schädel hindurch aufgezeichnet wurden, waren wie das Geschrei aus einem Stadion, das man von außen hört - lauter und unklar. Man konnte es noch nicht als eine Technologie bezeichnen.
Um klarere und präzisere Signale zu erhalten, erkannten die Wissenschaftler, dass sie möglicherweise näher an das Gehirn herankommen oder sogar in das Gehirn eindringen mussten.
Im Jahr 1978 in New York.
Dr. William Dobelle implantierte 68 Elektrodenarrays in den visuellen Kortex eines Blinden. Als er den Strom einschaltete, sah der Patient ein niedrigauflösendes Punktmusterbild.
Das war keine echte Sehkraft, sondern Phosphene (eine halluzinatorische Reaktion des Gehirns auf elektrische Stimulation), aber dieses Experiment brachte das BCI in die klinische Anwendung.
Im Jahr 1988 entwickelten die Wissenschaftler den P300-Schreiber, der es gelähmten Patienten ermöglichte, Buchstaben über Gehirnwellen auszuwählen und so eine grundlegende Kommunikation zu ermöglichen. Dies war das erste Mal in der Geschichte, dass Menschen, die vollständig unfähig waren, sich zu bewegen, nur mit dem Gedanken mit der Außenwelt kommunizierten. Der P300-Schreiber wurde somit die erste echte Anwendung des Hirn-Computer-Interfaces.
Nach einer Reihe von klinischen Studien am menschlichen Gehirn war das Prinzip des Hirn-Computer-Interfaces grundsätzlich festgelegt.
Im Jahr 1999 fand die erste Internationale Konferenz über Hirn-Computer-Interfaces statt. Die Wissenschaftler kamen zu dem Konsens, dass das Hirn-Computer-Interface keine Science-Fiction war, sondern eine ernsthafte Wissenschaft. Ab dann wurde das Hirn-Computer-Interface als ein professionelles Forschungsgebiet von der Wissenschaftsgemeinschaft und der Branche offiziell anerkannt.
Was ist eigentlich ein Hirn-Computer-Interface?
Um zu verstehen, wie ein Hirn-Computer-Interface funktioniert, müssen wir zunächst die grundlegende Funktionsweise des Gehirns verstehen. Alle menschlichen Gedanken, Handlungen und Bewusstsein beruhen letztendlich auf der elektrischen Aktivität der Nervenzellen im Gehirn. Das Gehirn ist wie ein Kommandozentrum, das über etwa 80 - 100 Milliarden Neuronen elektrische Signale an andere Teile des Körpers sendet. Jedes Neuron ist mit Tausenden anderer Neuronen verbunden und bildet ein kompliziertes Nervennetzwerk. Wenn Sie Ihren Arm bewegen möchten, erzeugt die motorische Hirnrinde spezifische elektrische Nervensignale, die über das Rückenmark und die peripheren Nerven an die Armmuskeln gesendet werden, um eine Bewegung auszulösen.
Das grundlegende Prinzip des Hirn-Computer-Interfaces besteht darin, außerhalb dieses natürlichen Nervensystems einen neuen Informationskanal zu schaffen. Es ist unabhängig vom peripheren Nervensystem und den Muskeln und schafft direkt eine Verbindung zwischen Gehirn und externem Gerät, ähnlich wie man Daten von einer Festplatte über einen USB-Anschluss auf einem Computer liest.
Ein vollständiges Hirn-Computer-Interface-System besteht normalerweise aus vier Schlüsselschritten: Aufzeichnung, Decodierung, Steuerung und Rückkopplung. Beim Aufzeichnungsschritt werden die elektrischen Aktivitäten des Gehirns über Elektroden und andere Geräte erfasst. Beim Decodierungsschritt werden die aufgezeichneten Nervenaktivitäten mit Algorithmen wie maschinellem Lernen analysiert. Beim Steuerungsschritt werden die decodierten Informationen in Steuerbefehle für externe Geräte umgewandelt. Beim Rückkopplungsschritt werden die visuellen, taktilen und anderen Informationen, die nach der Ausführung der Aktion durch das Gerät entstehen, an den Benutzer zurückgesendet, um einen geschlossenen Kreislauf zu bilden.
Aber die frühen Hirn-Computer-Interfaces waren wie alte Computer: Die Elektroden waren groß und die Reaktion war langsam. Die Wissenschaftler standen wie vor einer dicken Wand und hörten nur undeutlich, wie jemand drinnen sprach, konnten aber nur einzelne Wörter erfassen. Das Hirn-Computer-Interface befand sich noch in der Phase des punktuellen Durchbruchs und es bedurfte dringend einer systematischen Forschung und Anwendung.
2000 - 2019: Das Hirn-Computer-Interface geht in die Klinik
Im 21. Jahrhundert erlebte die Technologie des Hirn-Computer-Interfaces einen explosionsartigen Wachstumsschub und begann tatsächlich den Menschen zu dienen.
Im Jahr 2004 im Rhode Island Hospital in den Vereinigten Staaten. Matthew Nagle, ein junger Mann, der durch eine Rückenmarksverletzung vollständig gelähmt war, wurde der erste Proband des BrainGate-Hirn-Computer-Interfaces. In seine motorische Hirnrinde wurde ein 4mm x 4mm Elektrodenarray implantiert. Auf diesem Elektrodenarray in der Größe eines Streichholzkopfes waren etwa 100 nadelförmige Elektroden verteilt, die gleichzeitig die Entladungsaktivitäten von Hunderten von Neuronen in der Nähe aufzeichnen konnten. Mit Hilfe dieses Systems lernte er nach Monaten Training, den Computer-Cursor mit dem Gedanken zu steuern und wurde der erste Mensch, der einen Roboterarm mit einem invasiven Hirn-Computer-Interface steuerte.
Bei der Eröffnung der Fußball-Weltmeisterschaft 2014 in Brasilien eröffnete ein paraplegischer Junge in einer Roboterrüstung mit dem Gedanken den ersten Ball. Dieses von Prof. Miguel Nicolelis von der Duke University entwickelte, gehirngesteuerte Exoskelett namens Bra - Santos Dumont ermöglichte erstmals, dass während der Steuerung des Exoskeletts durch das Gehirn taktile, thermische und Kraftinformationen an den Benutzer zurückgesendet wurden. In diesem Moment wurde die Technologie des Hirn-Computer-Interfaces von einem klinischen medizinischen Gerät zum Mittelpunkt der weltweiten Aufmerksamkeit.
Zur gleichen Zeit entwickelte sich auch die nicht-invasive Technologie rasch. Im Jahr 2016 konnte das Team von Prof. Bin He von der University of Minnesota ohne Gehirnelektrodenimplantation mit Hilfe von Kopfhaut-Elektroenzephalographie (EEG) Objekte im dreidimensionalen Raum steuern, einschließlich des Greifens und Platzierens von Objekten mit einem Roboterarm und der Steuerung eines Fluggeräts. Dies brachte Hoffnung für Millionen von behinderten Menschen und Patienten mit neurologischen Erkrankungen.
Nach einer Reihe von klinischen Durchbrüchen in Projekten wie BrainGate geriet das Hirn-Computer-Interface in eine Sackgasse: Die mangelnde Stabilität der Elektroden, die begrenzten Signale und die komplizierte Operation hinderten die Technologie daran, in breiter Anwendung zu kommen.
Unter dieser Hintergrundbedingungen tauchte Neuralink von Elon Musk auf und die Forschung in dieser Zeit zeigte das Merkmal der Parallelität von verschiedenen Technologiewegen.
Seit 2019: Neuralink bricht die Stagnation, verschiedene Technologiewege laufen parallel
Im Juli 2019 berief Elon Musk eine Pressekonferenz und kündigte an, dass das Unternehmen Neuralink einen großen Durchbruch in der Technologie des Hirn-Computer-Interfaces erzielt habe.
Vor der Entstehung von Neuralink war die Technologie des Hirn-Computer-Interfaces (BCI) lange Zeit von einigen Kernproblemen wie Gewebeschäden durch starre Elektroden, geringer Effizienz bei der Signalerfassung, großen Operationsverletzungen, schlechter Gerätestabilität und Schwierigkeiten bei der Kommerzialisierung eingeschränkt.
Neuralink hat ein System entwickelt, das mit einem neurochirurgischen Roboter 96 flexible Elektroden „Drähte“ mit einem Durchmesser von nur 4 - 6 Mikrometern in einem Bereich von 28 Quadratmillimetern im Gehirn implantiert. Diese flexiblen Elektroden können sich besser an die weiche Umgebung des Gehirngewebes anpassen als die traditionellen harten Silizium-Elektroden und verursachen weniger Gewebeschäden. Insgesamt enthält dieses Elektrodenkabel 3.072 Elektrodenpunkte. Mit dem R1-Operationsroboter werden sie mit einer Präzision im Mikrometerbereich schnell in die Großhirnrinde implantiert. Sie haben eine bessere Decodierfähigkeit und sind auch schöner anzusehen.