StartseiteArtikel

Das "blaue Buch" der Technologie-Frontier: Quantenrechnen (Teil 1)

Alpha Engineer2025-10-23 12:11
Die Gewinner des Nobelpreises für Quantencomputing 2025: Analyse der Prinzipien, technischen Ansätze und führenden Akteure.

Gerade kürzlich wurde der Nobelpreis für Physik 2025 offiziell bekannt gegeben, und die Quantencomputing hat den größten Gewinn erzielt.

In dieser Ausgabe möchten wir uns eingehend mit der Quantencomputing befassen.

Die Quantencomputing ist ein sehr umfangreiches und faszinierendes Thema, das ich in mehreren Ausgaben behandeln werde. Der Inhalt ist relativ technisch, daher empfehle ich Ihnen, geduldig zu lesen.

Diese Ausgabe ist der erste Teil einer Serie über die Quantencomputing, in dem ich die Grundprinzipien der Quantencomputing, die neuesten technologischen Durchbrüche und eine Liste der Kernunternehmen erläutern werde.

Im zweiten Teil werde ich die sechs derzeitigen Haupttechnologien der Quantencomputing und die neuesten Fortschritte der führenden Unternehmen auf den Primär- und Sekundärmärkten ausführlich vorstellen.

(1) Drei Phasen der Entwicklung der Quantencomputing: Vom NISQ zum FTQC

Die Quantencomputing-Branche befindet sich an einem entscheidenden Wendepunkt von der "wissenschaftlichen Phantasie" zur industriellen Umsetzung.

Der Kern dieser Transformation ist der wesentliche Durchbruch in der Quantenfehlerkorrektur (QEC)-Technologie.

Derzeit befindet sich die Quantencomputing in der "rauschenden mittleren Skala der Quantenphase" (NISQ, Noisy Intermediate-Scale Quantum).

Jeder Quantencomputer enthält mehrere Dutzend bis Tausende von physikalischen Quantenbits, aber diese Bits sind anfällig für Umgebungsrauschen, was zu einer begrenzten Rechentreue führt und die Ausführung von großen Algorithmen mit hoher Genauigkeit verhindert.

Daher konzentriert sich die Branche auf zwei Hauptwege: die Kommerzialisierung von Spezialmaschinen und die Anwendung von Hybridalgorithmen.

Spezielle Quantencomputer wie der Quantenannealer von D-Wave haben bereits teilweise kommerzielle Umsetzung erreicht und bieten den Branchen Finanz, Logistik und Fertigung eine deutliche Effizienzsteigerung. Der Umsatz von D-Wave im ersten Quartal 2025 stieg im Vergleich zum Vorjahr um über 500%, was die Rentabilität dieses Wegs bestätigt.

Die Quanten-Klassische-Hybridrechnung ist derzeit das praktikabelste Modell, bei dem ein Quantenprozessor (QPU) mit einem klassischen Hochleistungsrechner (GPU) kombiniert wird, um bestimmte komplexe Aufgaben zu lösen.

Das CUDA-Q-Platform von Nvidia und der Qiskit-Engine von IBM beschleunigen die Erstellung dieser Ökosysteme und bieten die entscheidenden Infrastrukturen für die Umsetzung der Quantenrechenleistung.

Abbildung: Das Quantencomputing-Ökosystem von Nvidia

Das mittelfristige Ziel der Quantencomputing (um etwa 2030) ist die Realisierung der "praktischen Quantenrechnung mit Fehlerkorrektur", deren Kern darin besteht, mehrere rauschende physikalische Quantenbits in einen logischen Quantenbit mit hoher Treue zu kodieren, um die Zuverlässigkeit der Berechnung erheblich zu verbessern.

Die Branchenführer haben klare Entwicklungspfade für logische Quantenbits veröffentlicht.

Quantinuum plant, bis 2027 100 logische Quantenbits zu erreichen.

IBM plant, bis 2029 das Starling-System mit 200 logischen Bits zu liefern und bis 2033 das Blue Jay-System mit 2000 logischen Quantenbits vorzustellen.

Abbildung: Der Quantencomputing-Entwicklungsplan von IBM

Das langfristige Ziel der Quantencomputing ist der Aufbau eines vollständigen fehlertoleranten Quantencomputers (Fault-Tolerant Quantum Computing, FTQC), dessen Rechenfehlerrate annähernd der eines klassischen Computers entspricht und der komplexe Algorithmen wie den Shor-Algorithmus ausführen kann, um wichtige wissenschaftliche und geschäftliche Probleme zu lösen, die klassische Computer nicht behandeln können.

Der Kern des FTQC ist die Verfügbarkeit einer ausreichenden Anzahl und Qualität von logischen Quantenbits, die die Quantenkoherenz über einen langen Zeitraum aufrechterhalten und tiefe und komplexe Quantenkreise ausführen können.

Dies würde es ermöglichen, das bestehende öffentliche Schlüsselsystem (z. B. RSA-Verschlüsselung) zu knacken und revolutionäre Durchbrüche in den Bereichen Neumaterialdesign und Arzneimittelentwicklung zu erzielen.

Technologie-Riesen setzen sich langfristig für dieses Ziel ein. Beispielsweise plant Google, bis 2030 einen fehlertoleranten Quantencomputer mit einer Million physikalischen Quantenbits zu realisieren.

Microsoft versucht dagegen, durch die revolutionäre Route der topologischen Quantenrechnung die Stabilität der Quantenbits grundlegend zu verbessern und in den nächsten Jahren auf eine Million Quantenbits zu skalieren.

(2) Das erste Grundprinzip der Quantencomputing: Die Quantenüberlagerung

Um die Branchenentwicklungstrends der Quantencomputing zu verstehen, müssen Sie zunächst die Grundprinzipien der Quantencomputing verstehen.

Die Quantencomputing ist ein Rechenmodell, das auf den einzigartigen Verhaltensweisen der Quantenmechanik basiert und Quantenbits als grundlegende Informationseinheiten verwendet.

Die Quantencomputing nutzt drei grundlegende Eigenschaften der Quantenmechanik, nämlich die "Quantenüberlagerung", die "Quantenverschränkung" und die "Quanteninterferenz". Lassen Sie uns diese Eigenschaften nacheinander betrachten.

Die Quantenüberlagerung ist die Kern-Eigenschaft der Quantenmechanik, die es einem mikroskopischen Teilchen ermöglicht, gleichzeitig in einer linearen Kombination mehrerer möglicher Zustände zu sein.

Ein klassisches Bit kann zu jedem Zeitpunkt nur 0 oder 1 sein, ähnlich wie die beiden Seiten einer gefallenen Münze.

Ein Quantenbit (Qubit) kann dagegen gleichzeitig in einem Überlagerungszustand von 0 und 1 sein, wie eine rotierende Münze, die alle Möglichkeiten zwischen "Kopf" und "Zahl" enthält.

Diese Zustandsunsicherheit ist eine inhärente physikalische Eigenschaft des Quantensystems, und erst wenn eine Messung erfolgt, "kollabiert" sein Zustand zu einem bestimmten klassischen Wert (0 oder 1).

Das Prinzip der Quantenüberlagerung verleiht der Quantencomputing eine natürliche parallele Verarbeitungsfähigkeit.

Da ein einzelnes Quantenbit eine Überlagerung von 0 und 1 darstellen kann, kann ein System aus n Quantenbits gleichzeitig 2^n Zustände darstellen und speichern.

Das bedeutet, dass eine Operation auf n Quantenbits äquivalent zu einer Operation auf 2^n klassischen Werten gleichzeitig ist.

Mit der Zunahme der Anzahl der Quantenbits wächst der Rechenraum exponentiell und übertrifft die lineare Rechenleistungskurve eines klassischen Computers bei weitem.

Diese exponentielle parallele Rechenleistung ermöglicht es dem Quantencomputer, bestimmte komplexe Probleme wie die Faktorisierung großer Zahlen und die Quantenchemiesimulation zu behandeln, indem er gleichzeitig eine riesige Anzahl von Möglichkeiten erkundet und so die Rechenleistungsschranke klassischer Computer überwindet und enorme potenzielle Vorteile bietet.

Hinweis: Grafik von AlphaEngine FinGPT

(3) Das zweite Grundprinzip der Quantencomputing: Die Quantenverschränkung

Die Quantenverschränkung ist eine nicht-lokale starke Korrelation zwischen zwei oder mehreren Quantensystemen, die von Einstein als "spukhafte Fernwirkung" bezeichnet wurde.

In diesem Zustand bilden mehrere Quantenbits ein unteilbares Ganzes, dessen Gesamtszustand festgelegt ist, aber der Zustand eines einzelnen Bits nicht unabhängig beschrieben werden kann.

Die Messung eines Teilchens beeinflusst sofort den Zustand eines anderen oder mehrerer verschränkter Teilchen, unabhängig von der Entfernung zwischen ihnen. Dieser Momentaneffekt überwindet die lokale Beschränkung der klassischen Physik.

Die nicht-lokale Korrelationseigenschaft der Quantenverschränkung verleiht der Quantencomputing eine starke globale Kooperationsfähigkeit, die für die Lösung von Problemen komplexer Systeme von entscheidender Bedeutung ist.

Der Verschränkungszustand ermöglicht es dem Quantencomputer, Probleme in Vielteilchensystemen effizient zu behandeln, die klassische Computer schwer zu bewältigen haben. Beispielsweise in der Quantenchemiesimulation, dem Neumaterialdesign und der Arzneimittelentwicklung kann durch die Simulation der komplexen Wechselwirkungen zwischen Molekülen eine exponentielle Beschleunigung erzielt werden.

Die Quantenverschränkung ist auch die Grundlage von Sicherheitsverfahren wie der Quanten-Schlüsselverteilung (QKD).

Jede Lauschangriffe auf den verschränkten Kanal zerstört seine Korrelation und wird von den Kommunikationspartnern sofort bemerkt, was die absolute Sicherheit der Informationsübertragung gewährleistet.

(4) Das dritte Grundprinzip der Quantencomputing: Die Quanteninterferenz

Die physikalische Natur der Quanteninterferenz stammt von der Welleneigenschaft des Quantenzustands.

Der Überlagerungszustand jedes Quantenbits kann durch eine Wellenfunktion beschrieben werden, die Amplitude und Phase enthält.

Wenn ein Quantensystem über verschiedene Pfade evolviert, interferieren die Wellenfunktionen dieser Pfade miteinander.

Durch die genaue Steuerung der Phasenbeziehung zwischen den Quantenzuständen können konstruktive und destruktive Interferenzen erreicht werden.

Wenn die Phasen der Wellenfunktionen verschiedener Pfade übereinstimmen oder ähnlich sind, addieren sich ihre Wahrscheinlichkeitsamplituden und erhöhen die Wahrscheinlichkeit, dass dieses Ergebnis schließlich gemessen wird.

Umgekehrt heben sich die Wahrscheinlichkeitsamplituden auf, wenn die Phasen der Wellenfunktionen entgegengesetzt sind, was dazu führt, dass die Wahrscheinlichkeit, dieses Ergebnis zu messen, verringert oder sogar auf Null geht.

Diese Fähigkeit, die Wahrscheinlichkeitsverteilung des Endergebnisses durch die Steuerung der Phase zu verändern, ist der Kernmechanismus der Quantencomputing zur Manipulation von Informationen.

Der Kern der Quantenalgorithmen besteht darin, die Quanteninterferenzeffekte geschickt zu nutzen, um die klassischen Algorithmen zu beschleunigen.

Das Ziel der Algorithmenentwicklung ist es, durch eine Reihe von genauen Quanten-Gate-Operationen die Phasen der verschiedenen Pfade im Rechenprozess systematisch zu justieren. Jedes Quanten-Gate wirkt linear auf den gesamten Überlagerungszustand.

Durch das Design der Quanten-Gate-Sequenz werden alle Rechenpfade, die zum richtigen Ergebnis führen, konstruktiv interferieren lassen, und ihre Wahrscheinlichkeitsamplituden werden vergrößert, um die richtige Lösung zu stärken.

Gleichzeitig wird sichergestellt, dass alle Rechenpfade, die zu falschen Ergebnissen führen, destruktiv interferieren, so dass ihre Wahrscheinlichkeitsamplituden geschwächt oder vollständig aufgehoben werden.

Auf diese Weise kollabiert der Zustand des Quantensystems am Ende der Evolution mit einer sehr hohen Wahrscheinlichkeit auf die gewünschte Lösung.

Dies ist der Schlüssel, warum Algorithmen wie der Shor-Algorithmus und der Grover-Algorithmus bestimmte Probleme effizient lösen können. Sie konzentrieren die Rechenressourcen auf die Suche nach der richtigen Lösung und erzielen so eine exponentielle oder quadratische Beschleunigung.

(5) Die sechs Schritte der Quantencomputing

Zusammenfassend lässt sich sagen, dass die Quantencomputing die drei grundlegenden Eigenschaften der Quantenmechanik nutzt, indem sie 2ⁿ Rechenpfade in einem einzigen Hardware-Set synchron evolviert, um die Rechenressourcen erheblich zu sparen, und schließlich die richtige Lösung durch die Quanteninterferenz sichtbar macht.

Von einer makroskopischen Perspektive aus betrachtet kann der Quantenrechenprozess in sechs Schritte unterteilt werden, wie in der folgenden Abbildung gezeigt.

Abbildung: Die sechs Schritte der Quantencomputing, BofA, AlphaEngine

Zunächst wird das physikalische Quantenbit erstellt (Create Qubits). Dies ist die Hardware-Basis des Quantencomputers, und die Quantenbits können Quantenverhaltensweisen wie Überlagerungszustände und Verschränkungszustände zeigen.

Dann erfolgt die Initialisierung (Initialization), bei der die Quantenbits auf einen "reinen" Ausgangszustand zurückgesetzt werden, um alle Überlagerungen und Verschränkungen zu entfernen und sicherzustellen, dass der Rechenprozess konsistent und ohne Rauschen ist. Ein üblicher Ausgangszustand ist der Rechenbasiszustand |0⟩, auch "ket zero" genannt.

Im dritten Schritt werden die Quanten-Gates angewendet (Run Gates). Durch die Quanten-Gates werden die Quantenbits in Überlagerungs- und Verschränkungszustände gebracht, und das zu lösende Problem wird in das Quantensystem "kodiert".

Im vierten Schritt wird der Quantenalgorithmus ausgeführt (Circuit Execution). Hierbei bezieht sich der Quantenkreis