Ein Quantencomputer stellt ein konzeptionelles oder realisiertes Rechengerät dar, das Quantenphänomene wie Superposition und Verschränkung grundlegend nutzt. Es wird allgemein angenommen, dass ein solcher Computer die Fähigkeit besitzt, bestimmte Berechnungen mit exponentiellen Geschwindigkeitsvorteilen gegenüber herkömmlichen klassischen Computern auszuführen. Beispielsweise könnte ein ausreichend skalierter Quantencomputer möglicherweise die vorherrschenden Verschlüsselungsprotokolle gefährden und fortgeschrittene physikalische Simulationen für Forscher ermöglichen. Dennoch bleiben zeitgenössische Hardware-Realisierungen der Quantenberechnung überwiegend experimentell, was ihre Anwendbarkeit auf hochspezialisierte Operationen beschränkt.
Ein Quantencomputer ist ein (realer oder theoretischer) Computer, der Quantenphänomene wie Superposition und Verschränkung auf wesentliche Weise nutzt. Es wird allgemein angenommen, dass ein Quantencomputer einige Berechnungen exponentiell schneller durchführen könnte als jeder klassische Computer. Beispielsweise könnte ein großer Quantencomputer einige weit verbreitete Verschlüsselungsschemata durchbrechen und Physikern bei der Durchführung physikalischer Simulationen helfen. Aktuelle Hardware-Implementierungen der Quantenberechnung sind jedoch weitgehend experimentell und nur für spezielle Aufgaben geeignet.
Die grundlegende Informationseinheit im Quantencomputing, ein Qubit (oder „Quantenbit“) genannt, erfüllt eine analoge Rolle wie das Bit in der konventionellen oder „klassischen“ Berechnung. Im Gegensatz zu einem klassischen Bit, das auf einen von zwei binären Zuständen beschränkt ist, kann ein Qubit gleichzeitig eine lineare Kombination zweier Zustände einnehmen, ein Phänomen, das als Quantenüberlagerung bezeichnet wird. Das Ergebnis einer Qubit-Messung wird probabilistisch bestimmt und ergibt einen der beiden konstituierenden Zustände. Wenn ein Quantencomputer ein Qubit durch spezifische Manipulationen verarbeitet, können Welleninterferenzeffekte die Wahrscheinlichkeit erhöhen, ein bestimmtes gewünschtes Messergebnis zu erzielen. Folglich erfordert die Entwicklung von Quantenalgorithmen die Formulierung von Verfahren, die es einem Quantencomputer ermöglichen, diese probabilistische Verstärkung durchzuführen.
Quantencomputer haben derzeit keinen praktischen Nutzen für weit verbreitete Anwendungen in der realen Welt. Die physikalische Entwicklung von High-Fidelity-Qubits stellt erhebliche Herausforderungen dar. Eine unzureichende Isolierung eines physikalischen Qubits von seiner Umgebung führt zur Quantendekohärenz und damit zu Rechenrauschen. Folglich haben die nationalen Regierungen die experimentelle Forschung, die sich auf die Entwicklung skalierbarer Qubits konzentriert, die sich durch längere Kohärenzdauern und geringere Fehlerwahrscheinlichkeiten auszeichnen, erheblich finanziert. Zu den beispielhaften Implementierungen gehören Supraleiter, die durch die Eliminierung von Widerständen eine Isolierung des elektrischen Stroms erreichen, und Ionenfallen, die einzelne Atomteilchen über elektromagnetische Felder einschließen. Forscher haben mit breitem Konsens behauptet, dass bestimmte Quantengeräte klassische Computer in der Leistung für hochspezialisierte Aufgaben übertreffen können, ein Maßstab, der als Quantenvorteil oder Quantenüberlegenheit bezeichnet wird. Es ist wichtig zu beachten, dass diese speziellen Aufgaben in realen Szenarien keinen praktischen Nutzen bringen.
Verlauf
Historisch gesehen waren die Disziplinen Quantenmechanik und Informatik über einen längeren Zeitraum hinweg getrennte akademische Bereiche. Die moderne Quantentheorie entstand in den 1920er Jahren, um rätselhafte physikalische Phänomene auf atomarer Ebene aufzuklären, während später digitale Computer entstanden, um mühsame Berechnungen zu automatisieren, die zuvor von menschlichen Bedienern durchgeführt wurden. Beide Bereiche fanden im Zweiten Weltkrieg bedeutende praktische Anwendung; Computer waren maßgeblich an der Kryptographie während des Krieges beteiligt, und die Quantenphysik bildete das Fundament der im Manhattan-Projekt eingesetzten Kernphysik.
Die Konvergenz von Quantenmechanik und Informatik begann, als Physiker begannen, quantenmechanische Modelle auf rechnerische Herausforderungen anzuwenden und Qubits als Ersatz für digitale Bits zu konzipieren. 1980 stellte Paul Benioff die Quanten-Turing-Maschine vor, ein theoretisches Konstrukt, das die Quantentheorie zur Modellierung eines vereinfachten Rechengeräts nutzt. Mit zunehmender Geschwindigkeit digitaler Computer stießen Physiker bei der Simulation der Quantendynamik auf einen exponentiell wachsenden Rechenaufwand, was Yuri Manin und Richard Feynman dazu veranlasste, unabhängig voneinander vorzuschlagen, dass auf Quantenphänomenen basierende Hardware eine höhere Effizienz für solche Simulationen bieten könnte. Anschließend wendeten Charles Bennett und Gilles Brassard 1984 in einer Veröffentlichung die Quantentheorie auf kryptografische Protokolle an und zeigten, dass die Verteilung von Quantenschlüsseln die Informationssicherheit erheblich verbessern könnte.
In der Folge entstanden Quantenalgorithmen zur Lösung von Orakelproblemen, darunter der Deutsch-Algorithmus im Jahr 1985, der Bernstein-Vazirani-Algorithmus im Jahr 1993 und der Simon-Algorithmus im Jahr 1994. Diese Algorithmen lösten zwar keine praktischen Probleme, Sie stellten mathematisch fest, dass erweiterte Informationen extrahiert werden können, indem ein Orakel (Black Box) mit einem Quantenzustand in Überlagerung abgefragt wird, ein Konzept, das gelegentlich als Quantenparallelität bezeichnet wird.
Peter Shor erweiterte diese Erkenntnisse mit seinem Algorithmus von 1994, der in der Lage war, die vorherrschenden RSA- und Diffie-Hellman-Verschlüsselungsprotokolle zu kompromittieren und dadurch die Bedeutung des Quantencomputings erheblich zu steigern. 1996 demonstrierte Grovers Algorithmus eine Quantenbeschleunigung für das allgemein anwendbare Problem der unstrukturierten Suche. Im selben Jahr lieferte Seth Lloyd den Beweis, dass Quantencomputer die Fähigkeit besitzen, Quantensysteme zu simulieren, ohne den exponentiellen Rechenaufwand zu verursachen, der für klassische Simulationen charakteristisch ist, und bestätigte damit Feynmans Vermutung von 1982.
Während ihrer Entwicklung haben experimentelle Bemühungen zum Bau von Prototypen von Quantencomputergeräten geführt, die eingefangene Ionen und Supraleiter nutzen. Im Jahr 1998 bewies ein Zwei-Qubit-Quantencomputer die technologische Machbarkeit dieses Ansatzes, und nachfolgende Forschungen haben die Anzahl der Qubits schrittweise erhöht und die Fehlerraten verringert.
Im Jahr 2019 erklärten Google AI und die NASA das Erreichen der Quantenüberlegenheit mithilfe eines 54-Qubit-Prozessors, indem sie eine Rechenaufgabe ausführten, die für jeden klassischen Supercomputer als unlösbar galt.
IBM widerlegte diese Erklärung umgehend: Er behauptete, dass die Berechnung, von der Google schätzte, dass sie 10.000 Jahre dauern würde, auf dem Summit-Supercomputer von IBM in nur 2,5 Tagen abgeschlossen werden könnte, vorausgesetzt, seine Architektur sei optimal konfiguriert. Diese Behauptung löste eine wissenschaftliche Debatte über die endgültigen Kriterien zur Feststellung der „Quantenüberlegenheit“ aus.
Quanteninformationsverarbeitung
Computeringenieure konzipieren die Funktionalität moderner Computer typischerweise durch die Linse der klassischen Elektrodynamik. In diesen herkömmlichen Computersystemen könnten bestimmte Bestandteile, darunter Halbleiter und Zufallszahlengeneratoren, Quantenphänomene nutzen; Dennoch führt ihre mangelnde Isolation von der Umgebung unweigerlich zu einer schnellen Dekohärenz jeglicher Quanteninformation. Obwohl Softwareentwickler die Wahrscheinlichkeitstheorie für den Entwurf randomisierter Algorithmen verwenden können, haben quantenmechanische Prinzipien wie Superposition und Welleninterferenz im Bereich der Programmanalyse im Allgemeinen nur minimale Relevanz.
Quantenprogramme hingegen erfordern die sorgfältige Kontrolle kohärenter Quantensysteme. Diese Systeme werden von Physikern mithilfe der linearen Algebra mathematisch charakterisiert. Insbesondere stellen komplexe Zahlen Wahrscheinlichkeitsamplituden dar, Vektoren beschreiben Quantenzustände und Matrizen definieren die zulässigen Operationen an diesen Zuständen. Folglich beinhaltet der Prozess der Programmierung eines Quantencomputers die Orchestrierung von Vorgängen, um sicherzustellen, dass das resultierende Programm ein theoretisch vorteilhaftes Ergebnis liefert und praktisch umsetzbar ist.
Der Physiker Charlie Bennett formuliert die Beziehung zwischen Quanten- und klassischen Computern wie folgt:
Ein klassischer Computer ist ein Quantencomputer ... also sollten wir uns nicht fragen: „Woher kommen Quantenbeschleunigungen?“ Wir sollten sagen: „Nun, alle Computer sind Quantencomputer. … Woher kommen klassische Verlangsamungen?“
Quanteninformationen
Analog zum Bit in der klassischen Informationstheorie bildet das Qubit die Grundeinheit der Quanteninformation. Die Bezeichnung Qubit bezeichnet sowohl ein abstraktes mathematisches Konstrukt als auch jedes physikalische System, das dieses Modell verkörpert. Per Definition nimmt ein klassisches Bit einen von zwei unterschiedlichen physikalischen Zuständen ein, die üblicherweise mit 0 und 1 bezeichnet werden. In ähnlicher Weise ist ein Qubit durch einen Zustand mit zwei spezifischen Zuständen gekennzeichnet, die häufig als und , die als Quantenanaloga zu den klassischen Zuständen 0 und 1 fungieren. Entscheidend sind die Quantenzustände und befinden sich in einem Vektorraum, was ihre Fähigkeit zur Skalarmultiplikation und Linearkombination impliziert, wobei die resultierende Einheit ein gültiger Quantenzustand bleibt. Diese Art der Linearkombination wird als Superposition von und .
Der Zustand eines Qubits wird mathematisch durch einen zweidimensionalen Vektor dargestellt. In der quantenmechanischen linearen Algebra verwenden Physiker üblicherweise die Bracket-Notation und drücken sie als
ausWenn ein Qubit einer Messung auf Standardbasis unterzogen wird, ist das Ergebnis ein klassisches Bit. Die Born-Regel erläutert die Beziehung zwischen Amplituden und Wahrscheinlichkeiten, insbesondere die Norm-Quadrat-Entsprechung. Beim Messen eines Qubits im Zustand , sein Quantenzustand kollabiert entweder zu mit einer Wahrscheinlichkeit von , oder zu Der Zustand eines Ein-Qubit-Quantenspeichers kann durch die Anwendung von Quantenlogikgattern verändert werden, ein Prozess, der der Manipulation des klassischen Speichers mithilfe klassischer Logikgatter entspricht. Unter diesen ist das NOT-Gatter sowohl für die klassische als auch für die Quantenberechnung von Bedeutung und wird formal durch die folgende Matrix dargestellt:
undX §1213§| ⟩ = §2324§| ⟩ {\displaystyle X|0\rangle =|1\rangle .X §4849§| ⟩ = §5960§| ⟩ {\displaystyle X|1\rangle =|0\rangle
Die mathematischen Prinzipien, die Single-Qubit-Gates regeln, sind über zwei Hauptmechanismen auf Multi-Qubit-Quantenspeicher anwendbar. Erstens kann ein bestimmtes Qubit anvisiert und das Gate darauf angewendet werden, ohne die anderen Qubits im Speicher zu verändern. Zweitens kann der Betrieb eines Gates davon abhängig gemacht werden, dass sich ein anderes Segment des Quantenspeichers in einem vordefinierten Zustand befindet. Diese beiden Betriebsparadigmen werden anhand eines weiteren Beispiels weiter erläutert.The fundamental states for a two-qubit quantum memory are defined as follows:
Im Wesentlichen wird Quantenberechnung als ein miteinander verbundenes System von Quantenlogikgattern und -messungen konzipiert. Dennoch können alle Messungen bis zum Abschluss der Quantenberechnung verschoben werden, wenn auch möglicherweise mit einem Rechenaufwand verbunden. Folglich stellen die meisten Quantenschaltkreise ein Netzwerk dar, das ausschließlich aus Quantenlogikgattern besteht und Messungen weglässt.
Quantenparallelismus
Quantenparallelität bezieht sich auf das heuristische Prinzip, das besagt, dass Quantencomputer die Fähigkeit besitzen, eine Funktion über mehrere Eingabewerte gleichzeitig auszuwerten. Dieses Phänomen wird durch die Vorbereitung eines Quantensystems in einer Überlagerung von Eingabezuständen und die anschließende Anwendung einer einheitlichen Transformation realisiert, die die betrachtete Funktion effektiv kodiert. Der resultierende Quantenzustand kapselt anschließend die Ausgabewerte der Funktion für jeden Eingabewert innerhalb der Überlagerung und erleichtert so die gleichzeitige Berechnung zahlreicher Ausgaben. Während diese Eigenschaft für die beschleunigte Leistung vieler Quantenalgorithmen von grundlegender Bedeutung ist, reicht diese Form der „Parallelität“ allein nicht aus, um eine Rechenbeschleunigung zu erreichen, da die endgültige Messung nur ein einziges Ergebnis liefert. Daher muss ein Quantenalgorithmus für einen praktischen Nutzen zusätzliche konzeptionelle Komponenten integrieren.
Quantenprogrammierung
Quantencomputing umfasst verschiedene Rechenmodelle, die sich jeweils durch die grundlegenden Elemente unterscheiden, in die der Rechenprozess zerlegt wird.
Gate-Array
Im Quanten-Gate-Array-Modell wird die Berechnung systematisch in eine sequentielle Reihe von Quantengattern unterteilt, die auf einer begrenzten Anzahl von Qubits arbeiten. Analog zur allgemeinen Beschreibung kann eine Quantenberechnung als ein miteinander verbundenes System aus Quantenlogikgattern und zugehörigen Messungen konzipiert werden. Dennoch ist es zulässig, alle Messungen bis zum Abschluss der Quantenberechnung zu verschieben, obwohl diese Verschiebung möglicherweise einen Rechenaufwand mit sich bringt. Folglich werden die meisten Quantenschaltkreise typischerweise als Netzwerke dargestellt, die ausschließlich aus Quantenlogikgattern bestehen, ohne explizite Darstellung von Zwischenmessungen.
Jede Quantenberechnung, die innerhalb des beschriebenen Formalismus einer einheitlichen Matrix der Größe
Messungsbasiertes Quantencomputing
Messungsbasiertes Quantencomputing umfasst die Zerlegung von Rechenaufgaben in eine Reihe von Bell-Zustandsmessungen und Einzel-Qubit-Quantengattern. Diese Operationen werden an einem zunächst vorbereiteten, stark verschränkten Zustand, insbesondere einem Clusterzustand, durchgeführt, wobei eine als Quantengatterteleportation bekannte Methode zum Einsatz kommt.
Adiabatisches Quantencomputing
Ein adiabatischer Quantencomputer, der nach dem Prinzip des Quantum Annealing arbeitet, führt Berechnungen durch, indem er einen anfänglichen Hamilton-Operator langsam und kontinuierlich in einen endgültigen Hamilton-Operator umwandelt. Die Grundzustände dieses letzten Hamilton-Operators kodieren die Lösung des Rechenproblems.
Neuromorphes Quantencomputing
Neuromorphes Quantencomputing (abgekürzt als „n.quantum computing“) stellt ein unkonventionelles Rechenparadigma dar, das neuromorphe Rechenprinzipien nutzt, um Quantenoperationen auszuführen. Es wurde postuliert, dass Quantenalgorithmen, definiert als Algorithmen, die für ein realistisches Quantenberechnungsmodell entwickelt wurden, mit neuromorphem Quantencomputing mit vergleichbarer Effizienz verarbeitet werden können. Sowohl das konventionelle Quantencomputing als auch das neuromorphe Quantencomputing stellen physikbasierte, unkonventionelle Berechnungsansätze dar, die von der traditionellen von Neumann-Architektur abweichen. Jede Methode beinhaltet den Aufbau eines Systems, typischerweise einer Schaltung, das das spezifische physikalische Problem modelliert, und anschließend die Nutzung der inhärenten physikalischen Eigenschaften dieses Systems, um die „minimale“ oder optimale Lösung zu ermitteln. Folglich weisen neuromorphes Quantencomputing und traditionelles Quantencomputing während ihrer Betriebsprozesse gemeinsame physikalische Eigenschaften auf.
Topologisches Quantencomputing
Ein topologischer Quantencomputer zerlegt Rechenaufgaben in die Flechtinteraktionen beliebiger Elemente innerhalb eines zweidimensionalen Gitters.
Quanten-Turing-Maschine
Die Quanten-Turing-Maschine dient als Quantenanalogon ihres klassischen Gegenstücks. Alle etablierten Modelle der Quantenberechnung – insbesondere Quantenschaltungen, Einweg-Quantenberechnung, adiabatische Quantenberechnung und topologische Quantenberechnung – haben sich als gleichwertig mit der Quanten-Turing-Maschine erwiesen. In einem perfekt realisierten Quantencomputer kann jedes dieser Modelle die anderen mit nur polynomiellem Overhead simulieren. Dennoch gilt diese Äquivalenz möglicherweise nicht für praktische Quantencomputer, bei denen der Simulationsaufwand unerschwinglich groß sein könnte.
Verrauschtes Quantencomputing im mittleren Maßstab
Der Quantenschwellensatz zeigt, dass eine Erhöhung der Anzahl von Qubits Fehler mindern kann, ein vollständig fehlertolerantes Quantencomputing gilt jedoch immer noch als weit entferntes Ziel. Einige Forscher gehen davon aus, dass NISQ-Maschinen (Noisy Intermediate-Scale Quantum) in naher Zukunft spezielle Zwecke erfüllen könnten, obwohl ihre Zuverlässigkeit von Natur aus durch das Rauschen innerhalb von Quantengattern begrenzt ist. Wissenschaftlern der Harvard University ist es gelungen, Quantenschaltkreise zu entwickeln, die Fehler effizienter korrigieren als alternative Ansätze und damit möglicherweise ein großes Hindernis für die praktische Quantenberechnung beseitigen. Dieses Harvard-Forschungsteam erhielt Unterstützung vom MIT, QuEra Computing, Caltech und der Princeton University und wurde durch das DARPA-Programm „Optimization with Noisy Intermediate-Scale Quantum Devices“ (ONISQ) finanziert.
Quantenkryptographie und Cybersicherheit
Die digitale Kryptografie gewährleistet die Vertraulichkeit der Kommunikation, indem sie unbefugten Zugriff verhindert. Konventionelle Verschlüsselung, bei der eine Nachricht mit einem Schlüssel durch einen Algorithmus verschleiert wird, beruht auf der inhärenten Rechenschwierigkeit der Umkehrung dieses Algorithmus. Die Verschlüsselung liegt auch digitalen Signaturen und verschiedenen Authentifizierungsmechanismen zugrunde. Quantencomputing bietet möglicherweise genügend Rechenleistung, um solche schwierigen Umkehrungen zu ermöglichen, wodurch möglicherweise durch herkömmliche Verschlüsselung gesicherte Nachrichten kompromittiert werden können.
Quantenkryptographie ersetzt herkömmliche Algorithmen durch Berechnungen, die auf der Quantenmechanik basieren. Im Prinzip wäre die Quantenverschlüsselung selbst für einen Quantencomputer nicht zu entziffern. Dieser Vorteil ist jedoch mit erheblichen Kosten verbunden, die mit einer aufwändigen Infrastruktur verbunden sind, und könnte auch die legitime Nachrichtendekodierung durch staatliche Sicherheitsbeamte effektiv ausschließen.
Aktuelle Forschungsbemühungen in der Quanten- und Post-Quantenkryptographie haben neuartige Algorithmen für die Quantenschlüsselverteilung, grundlegende Arbeiten zur Generierung von Quantenzufallszahlen und mehrere vorläufige technologische Demonstrationen hervorgebracht.
Kommunikation
Quantenkryptographie ermöglicht innovative Ansätze zur sicheren Datenübertragung. Beispielsweise nutzt die Quantenschlüsselverteilung verschränkte Quantenzustände, um sichere kryptografische Schlüssel zu erstellen. Wenn ein Sender und ein Empfänger Quantenzustände austauschen, können sie sicherstellen, dass ein Gegner die Nachricht nicht abfängt, da jeder unbefugte Abhörer unweigerlich das empfindliche Quantensystem stören und eine erkennbare Änderung herbeiführen würde. Durch den Einsatz geeigneter kryptografischer Protokolle können Sender und Empfänger so gemeinsame private Informationen herstellen, die abhörsicher sind.
Moderne Glasfaserkabel sind in der Lage, Quanteninformationen über relativ kurze Distanzen zu übertragen. Die laufende experimentelle Forschung ist bestrebt, zuverlässigere Hardware wie Quantenrepeater zu entwickeln, mit dem Ziel, diese Technologie zu skalieren, um Quantennetzwerke über große Entfernungen mit Ende-zu-Ende-Verschränkung aufzubauen. Theoretisch könnten solche Fortschritte neuartige technologische Anwendungen ermöglichen, einschließlich verteilter Quantencomputer und verbesserter Quantensensorik.
Algorithmen
Fortschritte bei der Identifizierung von Quantenalgorithmen konzentrieren sich hauptsächlich auf das Quantenschaltungsmodell, obwohl es Ausnahmen wie den quantenadiabatischen Algorithmus gibt. Quantenalgorithmen werden im Allgemeinen nach der Art der Rechengeschwindigkeit kategorisiert, die sie gegenüber entsprechenden klassischen Algorithmen erzielen.
Quantenalgorithmen, die superpolynomielle Beschleunigungen gegenüber optimalen klassischen Gegenstücken demonstrieren, umfassen Shors Algorithmus für die Faktorisierung ganzer Zahlen, zugehörige Quantenalgorithmen für die Berechnung diskreter Logarithmen, Lösungen für die Pell-Gleichung und, allgemeiner, Lösungen für das Problem der versteckten Untergruppen innerhalb abelscher endlicher Gruppen. Diese Berechnungsmethoden basieren grundsätzlich auf der Quanten-Fourier-Transformation. Während kein endgültiger mathematischer Beweis die Entdeckung eines ebenso schnellen klassischen Algorithmus ausschließt, deuten aktuelle Erkenntnisse darauf hin, dass eine solche Entwicklung unwahrscheinlich ist. Bestimmte Orakelprobleme, wie das Simon-Problem und das Bernstein-Vazirani-Problem, weisen nachweisbare Beschleunigungen auf. Diese Demonstrationen finden jedoch innerhalb des Quantenabfragemodells statt, einem eingeschränkten Rahmen, in dem die Festlegung von Untergrenzen erheblich einfacher ist und sich nicht immer in praktischen Geschwindigkeitsvorteilen für reale Anwendungen niederschlägt.
Zusätzliche rechnerische Herausforderungen, darunter die Simulation quantenphysikalischer Prozesse in der Chemie und Festkörperphysik, die Approximation spezifischer Jones-Polynome und der Quantenalgorithmus für lineare Gleichungssysteme, umfassen Quantenalgorithmen, die angeblich superpolynomische Beschleunigungen bieten und dies auch tun als BQP-vollständig eingestuft. Angesichts ihrer BQP-Vollständigkeit würde die Existenz eines ebenso effizienten klassischen Algorithmus für diese Probleme darauf hindeuten, dass kein Quantenalgorithmus eine superpolynomielle Beschleunigung bietet, eine Annahme, die allgemein als unwahrscheinlich angesehen wird.
Über diese spezifischen Probleme hinaus werden Quantenalgorithmen auf mögliche Anwendungen in der Kryptographie, Optimierung und maschinellen Lernen untersucht. Dennoch befinden sich die meisten dieser Bemühungen derzeit in der Forschungsphase und erfordern erhebliche Fortschritte bei der Fehlerkorrektur und Hardware-Skalierbarkeit, bevor sie in die Praxis umgesetzt werden können.
Bestimmte Quantenalgorithmen, darunter der Grover-Algorithmus und die Amplitudenverstärkung, erzielen im Vergleich zu ihren klassischen Gegenstücken eine Polynombeschleunigung. Obwohl diese Algorithmen eine relativ bescheidene quadratische Beschleunigung bieten, verfügen sie über eine breite Anwendbarkeit und beschleunigen dadurch eine Vielzahl von Rechenproblemen. Es ist jedoch wichtig zu beachten, dass diese Beschleunigungen typischerweise im Vergleich zur theoretischen Worst-Case-Leistung klassischer Algorithmen beobachtet werden; Konkrete Leistungsverbesserungen in der realen Welt gegenüber derzeit in der Praxis eingesetzten Algorithmen müssen noch schlüssig nachgewiesen werden.
Quantensystemsimulation
Angesichts der Tatsache, dass Chemie und Nanotechnologie grundsätzlich davon abhängen, Quantensysteme zu verstehen, deren effiziente Simulation klassischerweise schwierig ist, erweist sich die Quantensimulation als eine entscheidende Anwendung des Quantencomputings. Darüber hinaus bietet die Quantensimulation die Möglichkeit, das Verhalten von Atomen und Teilchen unter extremen Bedingungen, wie sie beispielsweise bei Collider-Reaktionen auftreten, zu modellieren. Im Juni 2023 gaben Forscher bei IBM bekannt, dass ein Quantencomputer im Vergleich zu einem herkömmlichen Supercomputer bessere Ergebnisse für ein bestimmtes physikalisches Problem geliefert hat.
Ungefähr zwei Prozent der weltweiten jährlichen Energieproduktion werden für die Stickstofffixierung zur Ammoniakproduktion über den Haber-Prozess im landwirtschaftlichen Düngemittelsektor aufgewendet, obwohl die Ammoniaksynthese bei verschiedenen Organismen natürlich vorkommt. Quantensimulationen könnten diesen Prozess möglicherweise aufklären und die Energieeffizienz der Ammoniakproduktion verbessern. Eine erwartete frühe Anwendung des Quantencomputings umfasst die Modellierung, die darauf abzielt, die Effizienz des Haber-Bosch-Prozesses zu verbessern, wobei die Umsetzung bis Mitte der 2020er Jahre prognostiziert wird, obwohl einige Prognosen einen längeren Zeitrahmen nahelegen.
Post-Quantum-Kryptographie
Eine bedeutende Anwendung des Quantencomputings liegt in seinem Potenzial, aktuell eingesetzte kryptografische Systeme zu kompromittieren. Die Ganzzahlfaktorisierung, ein grundlegendes Element für die Sicherheit von kryptografischen Systemen mit öffentlichem Schlüssel, wird allgemein als rechnerisch schwierig für klassische Computer angesehen, wenn es um große ganze Zahlen geht, die aus einer kleinen Anzahl von Primfaktoren bestehen (z. B. das Produkt zweier 300-stelliger Primzahlen). Umgekehrt könnte ein Quantencomputer dieses Problem exponentiell schneller lösen, indem er Shors Algorithmus zur Ganzzahlfaktorisierung einsetzt. Diese Fähigkeit würde es einem Quantencomputer ermöglichen, zahlreiche moderne kryptografische Systeme zu kompromittieren und effektiv einen polynomiellen Algorithmus (relativ zur Anzahl der Ziffern in der ganzen Zahl) zur Problemlösung bereitzustellen. Insbesondere basieren die meisten vorherrschenden Public-Key-Verschlüsselungen auf der Rechenschwierigkeit der ganzzahligen Faktorisierung oder dem Problem des diskreten Logarithmus, die beide durch Shors Algorithmus gelöst werden können. Folglich könnten Algorithmen wie RSA, Diffie-Hellman und Elliptic Curve Diffie-Hellman unsicher werden. Diese Algorithmen werden derzeit zum Schutz sicherer Webseiten, verschlüsselter E-Mails und verschiedener anderer Formen digitaler Daten eingesetzt. Ihr Kompromiss hätte tiefgreifende Auswirkungen auf die elektronische Privatsphäre und Sicherheit.
Die Identifizierung kryptografischer Systeme, die gegenüber Quantenalgorithmen resistent sind, stellt einen aktiven Forschungsbereich innerhalb der Post-Quantenkryptographie dar. Bestimmte Public-Key-Algorithmen, wie das McEliece-Kryptosystem, basieren auf rechnerischen Herausforderungen, die sich von ganzzahligen Faktorisierungs- und diskreten Logarithmusproblemen unterscheiden, die für Shors Algorithmus anfällig sind; Das McEliece-System beispielsweise beruht auf einem komplexen Problem der Codierungstheorie. Es ist derzeit nicht bekannt, dass gitterbasierte Kryptosysteme anfällig für Quantenberechnungen sind, und die Entwicklung eines Polynomzeitalgorithmus für das Problem der versteckten Untergruppen der Dieder, das viele gitterbasierte Kryptosysteme gefährden könnte, bleibt eine wichtige offene Forschungsfrage. Darüber hinaus wurde gezeigt, dass die Verwendung des Grovers-Algorithmus für einen Brute-Force-Angriff auf einen symmetrischen Algorithmus (mit geheimem Schlüssel) ungefähr 2n/2 Aufrufe des zugrunde liegenden kryptografischen Algorithmus erfordert, im Gegensatz zu ungefähr §89§n in klassischen Szenarien. Dies impliziert eine effektive Halbierung der symmetrischen Schlüssellängen; Beispielsweise würde AES-256 eine mit AES-128 vergleichbare Sicherheit gegen eine klassische Brute-Force-Suche bieten, wenn es einem Angriff unter Verwendung des Grover-Algorithmus ausgesetzt wäre.
Suchprobleme
Das prominenteste Beispiel eines Problems, das einer polynomialen Quantenbeschleunigung zugänglich ist, ist die unstrukturierte Suche, bei der es darum geht, ein bestimmtes Element in einer Datenbank zu finden, die
Probleme, die mit dem Grover-Algorithmus effizient gelöst werden können, weisen die folgenden Merkmale auf:
- Der Sammlung potenzieller Lösungen fehlt jede inhärente durchsuchbare Struktur.
- Die Menge der zu verifizierenden möglichen Antworten entspricht genau der Anzahl der dem Algorithmus zugeführten Eingaben.
- Es gibt eine boolesche Funktion, die jede Eingabe auswerten kann, um ihre Richtigkeit als Lösung festzustellen.
Bei Problemen mit diesen Attributen skaliert die Ausführungszeit des Grover-Algorithmus auf einem Quantencomputer proportional zur Quadratwurzel der Anzahl der Eingaben (oder Datenbankelemente), im Gegensatz zur linearen Skalierung, die bei klassischen Algorithmen beobachtet wird. Eine breite Kategorie von Problemen, auf die der Grover-Algorithmus anwendbar ist, umfasst boolesche Erfüllbarkeitsprobleme, bei denen die vom Algorithmus iterierte Datenbank alle denkbaren Lösungen umfasst. Ein praktisches Beispiel und eine mögliche Anwendung hierfür ist ein Dienstprogramm zum Knacken von Passwörtern, das zum Erraten von Passwörtern entwickelt wurde. Die Anwendung dieses Algorithmus zur Kompromittierung symmetrischer Chiffren ist für Regierungsbehörden von erheblichem Interesse.
Quantum Annealing
Quantum Annealing nutzt den adiabatischen Satz, um Berechnungen durchzuführen. Ein System wird zunächst im Grundzustand eines einfachen Hamilton-Operators konfiguriert, der sich dann schrittweise zu einem komplexeren Hamilton-Operator entwickelt, dessen Grundzustand die Lösung des betrachteten Problems verkörpert. Das adiabatische Theorem besagt, dass das System während des gesamten Prozesses stets in seinem Grundzustand bleibt, wenn diese Entwicklung ausreichend langsam voranschreitet. Quantenglühen ist in der Lage, Ising-Modelle und das rechnerisch äquivalente QUBO-Problem zu lösen, die wiederum zur Kodierung einer Vielzahl kombinatorischer Optimierungsprobleme genutzt werden können. Die adiabatische Optimierung kann bei der Lösung computerbiologischer Probleme von Nutzen sein.
Maschinelles Lernen
Angesichts der Tatsache, dass Quantencomputer Ausgaben erzeugen können, die von klassischen Gegenstücken ineffizient erzeugt werden, und angesichts der inhärent linearen algebraischen Natur der Quantenberechnung besteht erheblicher Optimismus hinsichtlich der Entwicklung von Quantenalgorithmen, die maschinelle Lernprozesse beschleunigen können.
Zum Beispiel wird angenommen, dass der HHL-Algorithmus, benannt nach seinen Urhebern Harrow, Hassidim und Lloyd, einen Rechenvorteil gegenüber klassischen Methoden bietet. Darüber hinaus haben aktuelle Untersuchungen verschiedener Forschungskollektive die Anwendung von Quanten-Annealing-Hardware für das Training von Boltzmann-Maschinen und tiefen neuronalen Netzen untersucht.
Modelle der tiefen generativen Chemie wurden auf ihren potenziellen Nutzen in der pharmazeutischen Forschung untersucht. Erste experimentelle Bemühungen konzentrierten sich auf den Einsatz kurzfristiger Quantenhardware für die molekulare generative Modellierung im Kontext der Arzneimittelforschung. Im Jahr 2023 dokumentierten Gero-Forscher ein hybrides quantenklassisches generatives Modell, das auf einer eingeschränkten Boltzmann-Maschine basiert und auf einem kommerziell erhältlichen Quanten-Annealing-Gerät ausgeführt wird und erfolgreich neuartige arzneimittelähnliche kleine Moleküle erzeugt, die physikochemische Eigenschaften aufweisen, die mit etablierten medizinischen Verbindungen vergleichbar sind. Dennoch stellen der enorme Umfang und die komplexe Natur des Strukturbereichs, der alle denkbaren wirkstoffähnlichen Moleküle umfasst, erhebliche Hindernisse dar, die Quantencomputer in Zukunft überwinden könnten. Quantencomputer eignen sich von Natur aus gut zur Lösung komplexer Quanten-Vielteilchenprobleme und spielen daher möglicherweise eine entscheidende Rolle in Anwendungen der Quantenchemie. Folglich wird erwartet, dass sich quantenverstärkte generative Modelle, einschließlich Quanten-GANs, letztendlich zu endgültigen generativen Chemiealgorithmen entwickeln könnten.
Engineering
Ab 2023 übertreffen klassische Computersysteme Quantencomputer nachweislich in allen praktischen Anwendungen. Obwohl moderne Quantencomputer die Lösung spezifischer mathematischer Herausforderungen beschleunigen könnten, bieten sie derzeit keinen erkennbaren Rechenvorteil für reale Aufgaben. Wissenschaftler und Ingenieure erforschen aktiv verschiedene Technologien für Quantencomputer-Hardware und streben die Entwicklung skalierbarer Quantenarchitekturen an, doch es bestehen weiterhin erhebliche Hindernisse.
Herausforderungen
Der Bau eines großen Quantencomputers bringt zahlreiche technische Schwierigkeiten mit sich. Der Physiker David DiVincenzo hat die folgenden Voraussetzungen für ein funktionierendes Quantencomputersystem beschrieben:
- Physikalische Skalierbarkeit zur Erhöhung der Qubit-Anzahl.
- Qubits, die in beliebige Zustände initialisiert werden können.
- Quantentore arbeiten mit Geschwindigkeiten, die die Dekohärenzzeit überschreiten.
- Ein universeller Satz von Quantengattern.
- Leicht zugängliche Qubit-Zustände.
Auch die Beschaffung von Komponenten für Quantencomputer birgt erhebliche Herausforderungen. Supraleitende Quantencomputer, wie sie von Google und IBM entwickelt wurden, erfordern Helium-3, ein Nebenprodukt der Kernforschung, und spezielle supraleitende Kabel, die ausschließlich von der japanischen Firma Coax Co. hergestellt werden.
Eine effektive Steuerung von Multi-Qubit-Systemen erfordert die Erzeugung und präzise Koordination zahlreicher elektrischer Signale, die durch eine strenge und deterministische Zeitauflösung gekennzeichnet sind. Diese Anforderung hat die Entwicklung von Quantencontrollern vorangetrieben, die die Interaktion mit Qubits erleichtern sollen. Darüber hinaus stellt die Skalierung dieser Systeme für eine zunehmende Anzahl von Qubits eine zusätzliche erhebliche Hürde dar.
Dekohärenz
Eine größte Herausforderung bei der Entwicklung von Quantencomputern besteht darin, die Quantendekohärenz zu verwalten oder zu beseitigen. Dies erfordert typischerweise die Isolierung des Quantensystems von seiner Umgebung, da externe Wechselwirkungen Dekohärenz induzieren. Dennoch gibt es auch alternative Dekohärenzquellen, darunter Quantengatter, Gitterschwingungen und den inhärenten thermonuklearen Spin des physikalischen Substrats, das für die Qubit-Implementierung verwendet wird. Dekohärenz ist ein irreversibler, praktisch nichteinheitlicher Prozess und erfordert im Allgemeinen eine strenge Kontrolle, wenn nicht sogar eine vollständige Prävention. Dekohärenzzeiten für zukünftige Systeme, insbesondere die transversale Relaxationszeit T§34§ (im NMR- und MRT-Kontext auch als Dephasierungszeit bezeichnet), reichen im Allgemeinen von Nanosekunden bis zu Sekunden bei kryogenen Temperaturen. Derzeit müssen bestimmte Quantencomputer ihre Qubits auf 20 Millikelvin kühlen (typischerweise über einen Verdünnungskühlschrank), um eine erhebliche Dekohärenz zu mildern. Eine Untersuchung aus dem Jahr 2020 geht davon aus, dass ionisierende Strahlung, wie etwa kosmische Strahlung, dennoch innerhalb von Millisekunden eine Dekohärenz in bestimmten Systemen induzieren kann.
Rechenintensive Aufgaben könnten daher bestimmte Quantenalgorithmen unpraktisch machen, da längere Versuche, Qubit-Zustände zu bewahren, letztlich ihre Überlagerungen gefährden.
Optische Methoden stehen aufgrund deutlich kürzerer Zeitskalen vor größeren Herausforderungen, wobei die optische Pulsformung häufig als Lösung genannt wird. Fehlerraten sind im Allgemeinen proportional zum Verhältnis von Betriebszeit zu Dekohärenzzeit, was erfordert, dass alle Operationen wesentlich schneller als die Dekohärenzperiode abgeschlossen werden.
Gemäß dem Schwellenwertsatz geht man davon aus, dass ausreichend niedrige Fehlerraten eine Quantenfehlerkorrektur ermöglichen, um Fehler und Dekohärenz zu mildern. Dieser Mechanismus ermöglicht es, dass die Gesamtrechenzeiten die Dekohärenzzeit überschreiten, vorausgesetzt, das Fehlerkorrekturschema kann Fehler schneller beheben, als sie durch Dekohärenz entstehen. Eine häufig genannte Fehlerrate für einzelne Gatter in fehlertoleranten Berechnungen beträgt unter der Annahme von depolarisierendem Rauschen 10−3.
Das Erreichen dieses Skalierbarkeitskriteriums ist über verschiedene Systeme hinweg möglich. Dennoch erhöht die Implementierung einer Fehlerkorrektur die erforderliche Anzahl an Qubits erheblich. Für Shors Algorithmus bleibt die Anzahl der Qubits, die für die Faktorisierung ganzer Zahlen benötigt werden, polynomial und liegt schätzungsweise zwischen L und L§56§, wobei L die Anzahl der Binärziffern in der zu faktorisierenden Ganzzahl darstellt. Fehlerkorrekturalgorithmen würden diese Anforderung noch um den Faktor L verstärken. Beispielsweise würde die Faktorisierung einer 1000-Bit-Zahl etwa §121314§ Qubits ohne Fehlerkorrektur erfordern, eine Zahl, die sich mit Fehlerkorrektur auf etwa §161718§ Qubits erhöhen würde. Die Rechendauer beträgt ungefähr L§2324§ oder ungefähr §262728§ Schritte, was bei 1 MHz etwa 10 Sekunden entspricht. Dennoch erweitert der mit der Kodierung und Fehlerkorrektur verbundene Aufwand die physikalische Größe eines fehlertoleranten Quantencomputers erheblich um mehrere Größenordnungen. Konservative Prognosen deuten darauf hin, dass mindestens 3 Millionen physikalische Qubits erforderlich wären, um eine 2.048-Bit-Ganzzahl innerhalb von 5 Monaten mit einem vollständig fehlerkorrigierten Quantencomputer mit gefangenen Ionen zu faktorisieren. Diese Zahl stellt derzeit die niedrigste Schätzung für die Anzahl der physischen Qubits dar, die für praktisch relevante ganzzahlige Faktorisierungsprobleme von 1.024 Bit oder mehr benötigt werden.
Eine alternative Strategie zur Fehlerminderung besteht darin, Paritätsprüfcodes mit niedriger Dichte in Cat-Qubits zu integrieren, die Bit-Flip-Fehler von Natur aus unterdrücken. Durch die Verwendung von 768 Cat-Qubits zur Realisierung von 100 logischen Qubits könnte die Fehlerrate möglicherweise auf einen Teil von 108 pro Zyklus und Bit gesenkt werden.
Eine besondere Methode zur Bewältigung der Stabilitäts-Dekohärenz-Herausforderung besteht in der Entwicklung eines topologischen Quantencomputers, der Anyons verwendet, bei denen es sich um Quasiteilchen handelt, die als Threads fungieren, und die Braid-Theorie nutzt, um stabile Logikgatter zu konstruieren. Nicht-abelsche Anyons besitzen die einzigartige Eigenschaft, eine Erinnerung an ihre vergangenen Manipulationen zu behalten, was sie möglicherweise für Quantencomputeranwendungen wertvoll macht. Ab 2025 finanzieren verschiedene Unternehmen, darunter auch Microsoft, aktiv die Erforschung von Quasiteilchen.
Quantenüberlegenheit
Der Physiker John Preskill führte den Begriff Quantenüberlegenheit ein, um die technische Leistung zu charakterisieren, zu beweisen, dass ein programmierbares Quantengerät ein Problem lösen kann, das für heutige klassische Computer unlösbar ist. Da das Problem nicht unbedingt von praktischem Nutzen sein muss, halten einige den Quantenüberlegenheitstest lediglich für einen prospektiven zukünftigen Maßstab.
Im Oktober 2019 stellte Google AI Quantum in Zusammenarbeit mit der NASA die erste Errungenschaft der Quantenüberlegenheit fest und führte Berechnungen auf dem Sycamore-Quantencomputer mehr als 3.000.000 Mal schneller aus als auf Summit, der weithin als der schnellste Supercomputer der Welt gilt. Diese Behauptung wurde seitdem auf den Prüfstand gestellt: IBM behauptete, dass Summit Proben erheblich schneller verarbeiten könne als ursprünglich angenommen, und nachfolgende Forschungen haben zu verbesserten Algorithmen für das Stichprobenproblem geführt, das für den Quantenüberlegenheitsanspruch von zentraler Bedeutung ist, wodurch die Leistungsunterschiede zwischen Sycamore und klassischen Supercomputern erheblich verringert und in einigen Fällen sogar übertroffen wurden.
Im Dezember 2020 nutzte ein Forschungsteam am USTC einen photonischen Quantencomputer namens Jiuzhang, um Boson-Sampling mit 76 durchzuführen Photonen und demonstriert damit die Quantenüberlegenheit. Die Forscher gingen davon aus, dass ein moderner klassischer Supercomputer 600 Millionen Jahre benötigen würde, um die gleiche Menge an Proben zu produzieren, die sein Quantenprozessor in 20 Sekunden erzeugte.
Während Behauptungen über die Quantenüberlegenheit erhebliche Begeisterung für Quantencomputer hervorgerufen haben, basieren diese Demonstrationen auf künstlich konstruierten Benchmark-Aufgaben, die nicht direkt in praktische, reale Anwendungen umgesetzt werden können.
Eine im Januar 2024 in Physical Review Letters veröffentlichte Studie bot eine direkte Validierung von Experimenten zur Quantenüberlegenheit. Dies wurde durch die Berechnung präziser Amplituden für experimentell erzeugte Bitstrings mithilfe eines Sunway-Supercomputers der nächsten Generation erreicht und stellte damit einen erheblichen Fortschritt bei den Simulationsmöglichkeiten dar, die auf einem Tensor-Netzwerkkontraktionsalgorithmus mit mehreren Amplituden basieren.
Skepsis
Trotz erheblichem Optimismus in Bezug auf Quantencomputing, Fortschritte bei der Hardware und vielversprechende zukünftige Anwendungen charakterisierte ein Nature-Spotlight-Artikel aus dem Jahr 2023 zeitgenössische Quantencomputer als „im Moment absolut nichts“. In dieser Veröffentlichung wurde weiter klargestellt, dass Quantencomputer herkömmliche Computer in Bezug auf Nutzen oder Effizienz noch nicht übertroffen haben, obwohl sie deren langfristigen Nutzen postulierte. Gleichzeitig wurde in einem Artikel der Communications of the ACM aus dem Jahr 2023 festgestellt, dass bestehende Quantencomputeralgorithmen „für einen praktischen Quantenvorteil ohne wesentliche Verbesserungen im gesamten Software-/Hardware-Stack nicht ausreichen“. In diesem Artikel wurde darauf hingewiesen, dass „Small-Data-Probleme“, wie etwa in der Chemie und den Materialwissenschaften, die gangbarsten Wege zur Beschleunigung von Quantencomputern darstellen. Dennoch kam es auch zu dem Schluss, dass zahlreiche potenzielle Anwendungen, einschließlich maschinellem Lernen, „in absehbarer Zeit keinen Quantenvorteil mit aktuellen Quantenalgorithmen erzielen werden“, und hob E/A-Einschränkungen hervor, die eine Beschleunigung bei „Big-Data-Problemen, unstrukturierten linearen Systemen und Datenbanksuche basierend auf Grovers Algorithmus“ unwahrscheinlich machen.
Diese vorherrschende Situation ist auf mehrere aktuelle und zukünftige Faktoren zurückzuführen.
- Konventionelle Computerhardware und -algorithmen werden nicht nur umfassend für praktische Anwendungen optimiert, sondern entwickeln sich auch weiterhin rasant weiter, insbesondere im Bereich der GPU-Beschleuniger.
- Moderne Quantencomputer-Hardware erzeugt nur einen begrenzten Grad an Verschränkung, bevor sie dem Rauschen unterliegt.
- Quantenalgorithmen bieten Geschwindigkeitsvorteile gegenüber herkömmlichen Gegenstücken für eine begrenzte Teilmenge von Aufgaben, und es hat sich als schwierig erwiesen, diese Aufgaben mit praktischen Anwendungen in Einklang zu bringen. Bestimmte vielversprechende Aufgaben und Anwendungen erfordern Ressourcen, die die derzeitigen Möglichkeiten deutlich übersteigen. Insbesondere die Verarbeitung großer Mengen an Nicht-Quantendaten stellt für Quantencomputer eine erhebliche Herausforderung dar.
- Darüber hinaus wurden mehrere angeblich vielversprechende Quantenalgorithmen einer „Dequantisierung“ unterzogen, was bedeutet, dass Nicht-Quanten-Analoga mit vergleichbarer Rechenkomplexität identifiziert wurden.
- Sollte die Quantenfehlerkorrektur eingesetzt werden, um Quantencomputer für praktische Anwendungen zu skalieren, könnte der damit verbundene Overhead möglicherweise die Geschwindigkeitsvorteile zahlreicher Quantenalgorithmen zunichte machen.
- Die Komplexitätsanalyse von Algorithmen beruht gelegentlich auf abstrakten Annahmen, die sich nicht genau auf reale Anwendungen übertragen lassen. Beispielsweise existieren Eingabedaten möglicherweise nicht von Natur aus in quantencodierten Zuständen, und die in Grovers Algorithmus verwendeten „Orakelfunktionen“ verfügen häufig über eine interne Struktur, die für die Entwicklung effizienterer klassischer Algorithmen genutzt werden könnte.
Insbesondere der Bau von Quantencomputern mit einer beträchtlichen Anzahl von Qubits könnte sich als wirkungslos erweisen, wenn diese Qubits keine ausreichende Konnektivität aufweisen und nicht über längere Zeiträume ein ausreichend hohes Maß an Verschränkung aufrechterhalten können. In dem Bemühen, herkömmliche Rechenkapazitäten zu übertreffen, suchen Quantencomputerforscher häufig nach neuen Aufgaben, die für Quantenlösungen zugänglich sind. Dieser Ansatz birgt jedoch das Potenzial für die spätere Entwicklung effizienter Nicht-Quanten-Techniken, wie beispielsweise durch Demonstrationen der Quantenüberlegenheit. Daher ist es ein entscheidendes Ziel, Untergrenzen für die Komplexität optimaler Nicht-Quantenalgorithmen festzulegen (die derzeit möglicherweise unbestimmt sind) und zu zeigen, dass bestimmte Quantenalgorithmen diese Grenzen asymptotisch überschreiten.
Bill Unruh äußerte 1994 in einer Veröffentlichung Skepsis hinsichtlich der Praktikabilität von Quantencomputern. Paul Davies behauptete, dass ein 400-Qubit-Computer im Widerspruch zu den aus dem holographischen Prinzip abgeleiteten kosmologischen Informationsgrenzen stünde. Prominente Skeptiker wie Gil Kalai stellen die letztendliche Verwirklichung der Quantenüberlegenheit in Frage. Der Physiker Mikhail Dyakonov äußerte seine Vorbehalte gegenüber Quantencomputern wie folgt:
- „Die Anzahl der kontinuierlichen Parameter, die den Zustand eines solchen nützlichen Quantencomputers zu einem bestimmten Zeitpunkt beschreiben, muss also … etwa 10300 betragen … Könnten wir jemals lernen, die mehr als 10300 kontinuierlich variablen Parameter zu kontrollieren, die den Quantenzustand eines solchen Systems definieren? Meine Antwort ist einfach. Nein, niemals.“
Physische Realisierungen
Ein praktischer Quantencomputer erfordert die Nutzung eines physikalischen Systems als programmierbares Quantenregister. Forscher untersuchen aktiv mehrere Technologien als potenzielle zuverlässige Qubit-Implementierungen. Supraleiter und eingefangene Ionen gehören zu den fortschrittlichsten Vorschlägen, doch Experimentatoren denken auch über andere Hardwarekonfigurationen nach. Beispielsweise werden topologische Quantencomputermethoden erforscht, um die Fehlertoleranz in Rechensystemen zu verbessern.
Erste Quantenlogikgatter wurden erfolgreich mit eingefangenen Ionen implementiert, und es wurden Prototypen von Allzweck-Quantencomputern mit bis zu 20 Qubits entwickelt. Dennoch erfordert die diesen Systemen zugrunde liegende Technologie eine Kombination aus komplizierten Vakuumgeräten, Lasersystemen sowie Mikrowellen- und Hochfrequenzinstrumenten. Diese Komplexität behindert die nahtlose Integration vollwertiger Prozessoren in die herkömmliche Computerinfrastruktur. Darüber hinaus stellt die Architektur gefangener Ionen inhärente technische Hürden dar, die gelöst werden müssen.
Kommerzielle Quantencomputersysteme im größten Maßstab basieren auf supraleitenden Geräten und erreichen eine Integration von bis zu 2000 Qubits. Dennoch liegen die bei diesen größeren Maschinen beobachteten Fehlerraten bei etwa 5 %. Aus technologischer Sicht arbeiten diese Geräte unter kryogenen Bedingungen, und die Erweiterung auf eine beträchtliche Qubit-Anzahl erfordert eine Integration im Wafer-Maßstab, was ein erhebliches technisches Hindernis darstellt.
Über kryogene Plattformen hinaus haben experimentelle Demonstrationen auch Raumtemperaturmethoden für Spin-Photon-Grenzflächen validiert. Forscher der Stanford University haben ein nanoskaliges Gerät demonstriert, bei dem eine dünne Schicht Molybdändiselenid auf einem nanostrukturierten Siliziumsubstrat integriert ist. Diese Konfiguration ermöglicht eine Spin-Photon-Schnittstelle, die unter Umgebungsbedingungen betrieben werden kann und strukturiertes oder „verdrehtes“ Licht verwendet, um eine Kopplung zwischen elektronischen und photonischen Freiheitsgraden zu erreichen. Diese bei Raumtemperatur integrierten Spin-Photon-Schnittstellen werden derzeit als potenzielle Grundkomponenten für heterogene Quantennetzwerke untersucht, die darauf abzielen, verschiedene Qubit-Modalitäten zu integrieren und die Abhängigkeit von einer umfangreichen kryogenen Infrastruktur zu verringern.
Theoretischer Rahmen
Rechenfähigkeiten
Jedes Rechenproblem, das von einem klassischen Computer gelöst werden kann, ist auch von einem Quantencomputer lösbar. Dieses Prinzip wird intuitiv durch die Prämisse gestützt, dass alle physikalischen Phänomene, einschließlich der Betriebsmechanismen klassischer Computer, letztendlich durch die Quantenmechanik beschrieben werden können, die grundlegende Theorie, die den Betrieb von Quantencomputern regelt.
Umgekehrt liegt jedes Problem, das ein Quantencomputer lösen kann, auch innerhalb der Rechenkapazität eines klassischen Computers. Konzeptionell können sowohl Quanten- als auch klassische Rechenprozesse mit einfachen Werkzeugen wie Papier und Stift manuell simuliert werden, sofern genügend Zeit zur Verfügung steht. Formaler gesagt ist eine Turing-Maschine in der Lage, jeden Quantencomputer zu simulieren. Folglich bieten Quantencomputer hinsichtlich der Berechenbarkeit keine höhere Rechenleistung als klassische Computer. Dies impliziert, dass Quantencomputer nicht in der Lage sind, unentscheidbare Probleme wie das Stoppproblem zu lösen, und ihre Existenz entkräftet nicht die Church-Turing-These.
Rechenkomplexität
Obwohl Quantencomputer nicht in der Lage sind, Probleme zu lösen, die für klassische Computer unlösbar sind, wird angenommen, dass sie Lösungen für spezifische Probleme mit größerer Effizienz als klassische Gegenstücke erreichen können. Beispielsweise sind Quantencomputer nachweislich in der Lage, ganze Zahlen effizient zu faktorisieren, eine Aufgabe, die für klassische Computerparadigmen im Allgemeinen nicht als effizient angesehen wird.
Die Komplexitätsklasse BQP, ein Akronym für „Bounded Error, Quantum, Polynomial Time“, umfasst Probleme, die von einem Quantencomputer mit einer eingeschränkten Fehlerrate effizient lösbar sind. Genauer gesagt bezeichnet BQP die Menge von Problemen, die durch eine polynomiellzeitige Quanten-Turing-Maschine gelöst werden können, sofern die Fehlerwahrscheinlichkeit 1/3 nicht überschreitet. BQP fungiert als Klasse probabilistischer Probleme und dient als Quantenanalogon zu BPP („bounded error, probabilistic, polynomial time“), das Probleme umfasst, die durch polynomiale probabilistische Turing-Maschinen mit begrenztem Fehler lösbar sind. Es wird festgestellt, dass
Die genaue Wechselbeziehung zwischen BQP, P, NP und PSPACE bleibt undefiniert. Dennoch steht fest, dass
Notizen
Quellen
- Aaronson, Scott (2013). Quantencomputing seit Demokrit. Cambridge University Press. doi:10.1017/CBO9780511979309. ISBN 978-0-521-19956-8. OCLC 829706638.Grumbling, Emily; Horowitz, Mark, Hrsg. (2019). Quantum Computing: Progress and Prospects. Washington, DC: The National Academies Press. doi:10.17226/25196. ISBN 978-0-309-47970-7. OCLC 1091904777. S2CID 125635007.Mermin, N. David (2007). Quanteninformatik: Eine Einführung. doi:10.1017/CBO9780511813870. ISBN 978-0-511-34258-5. OCLC 422727925.Nielsen, Michael; Chuang, Isaac (2010). Quantum Computation and Quantum Information (10. Jubiläumsausgabe). doi:10.1017/CBO9780511976667. ISBN 978-0-511-99277-3. OCLC 700706156. S2CID 59717455.
- Lernmaterialien zum Thema Quantencomputing bei Wikiversity
- Die Stanford Encyclopedia of Philosophy enthält einen Eintrag mit dem Titel „Quantum Computing“, verfasst von Amit Hagar und Michael E. Cuffaro.
- Der Eintrag „Quantum computation, theory of“ ist in der Encyclopedia of Mathematics enthalten, die 2001 von EMS Press veröffentlicht wurde, mit einem ursprünglichen Veröffentlichungsdatum von 1994.
- Schneider, J. und Smalley, I. (2024, 5. August). Autor des Artikels „Was ist Quantencomputing?“ | IBM."
- Vorträge
- Michael Nielsen hielt eine Reihe von 22 Videovorträgen mit dem Titel „Quantencomputing für Entschlossene“.
- David Deutsch präsentierte eine Sammlung von Videovorträgen.
- Sam Lomonaco hielt im Juli 2006 vier Vorlesungen über Quantencomputing an der Universität Oxford.