Harvard-Wissenschaftler behaupten Durchbruch, „Aufkommen der frühen fehlerkorrigierten Quantenberechnung“

Wenn Brancheninsider von einer Zukunft sprechen, in der Quantencomputer in der Lage sind, Probleme zu lösen, die klassische Binärcomputer nicht lösen können, meinen sie etwas, das „Quantenvorteil“ genannt wird.

Um diesen Vorteil zu erreichen, müssen Quantencomputer stabil genug sein, um in Größe und Leistungsfähigkeit skaliert zu werden. Im Großen und Ganzen glauben Quantencomputing-Experten, dass das größte Hindernis für die Skalierbarkeit von Quantencomputing-Systemen Rauschen ist.

Verwandt: Moody’s führt Quantum-as-a-Service-Plattform für das Finanzwesen ein

Die Forschungsarbeit des Harvard-Teams mit dem Titel „Logischer Quantenprozessor basierend auf rekonfigurierbaren Atomarrays“ beschreibt eine Methode, mit der Quantencomputerprozesse fehlersicher und mit der Fähigkeit, Rauschen zu überwinden, ausgeführt werden können.

Laut Papier:

„Diese Ergebnisse läuten das Aufkommen früher fehlerkorrigierter Quantenberechnungen ein und zeigen den Weg zu großen logischen Prozessoren auf.“

Verrauschte Qubits

Insider bezeichnen den aktuellen Stand des Quantencomputings als die Noisy Intermediate-Scale Quantum (NISQ)-Ära. Diese Ära wird durch Quantencomputer mit weniger als 1.000 Qubits (der Quantenversion eines Computerbits) definiert, die im Großen und Ganzen „verrauscht“ sind.

Verrauschte Qubits stellen ein Problem dar, da sie in diesem Fall anfällig für Störungen und Irrtümer sind.

Das Harvard-Team behauptet, „frühe fehlerkorrigierte Quantenberechnungen“ erreicht zu haben, die das Rauschen in weltweit ersten Maßstäben überwinden. Ihrer Arbeit nach zu urteilen, haben sie jedoch noch nicht die vollständige Fehlerkorrektur erreicht. Zumindest nicht so, wie es die meisten Experten wahrscheinlich sehen würden.

Fehler und Messungen

Quantencomputing ist schwierig, da Qubits im Gegensatz zu einem klassischen Computerbit grundsätzlich ihre Informationen verlieren, wenn sie gemessen werden. Und die einzige Möglichkeit herauszufinden, ob bei einem bestimmten physikalischen Qubit ein Rechenfehler aufgetreten ist, besteht darin, ihn zu messen. Th

Eine vollständige Fehlerkorrektur würde die Entwicklung eines Quantensystems erfordern, das in der Lage ist, Fehler zu identifizieren und zu korrigieren, wenn sie während des Berechnungsprozesses auftauchen. Bisher erwiesen sich diese Techniken als sehr schwer skalierbar.

Anstatt Fehler während der Berechnungen zu korrigieren, fügt der Prozessor des Harvard-Teams eine Fehlererkennungsphase nach der Verarbeitung hinzu, in der fehlerhafte Ergebnisse identifiziert und verworfen werden.

Dies bietet der Forschung zufolge einen völlig neuen und möglicherweise beschleunigten Weg für die Skalierung von Quantencomputern über die NISQ-Ära hinaus und in den Bereich des Quantenvorteils.

Während die Arbeit vielversprechend ist, heißt es in einer Pressemitteilung der DARPA angegeben dass mindestens eine Größenordnung größer als die 48 logischen Qubits, die in den Experimenten des Teams verwendet wurden, benötigt werden, um „alle großen Probleme zu lösen, die für Quantencomputer vorgesehen sind“.

Die Forscher behaupten, dass die von ihnen entwickelten Techniken auf Quantensysteme mit über 10.000 Qubits skalierbar sein sollten.