Quantencomputer Google Willow: Qubits, die auf Qubits starren

Google hat einen Chip namens Willow mit 105 Qubits vorgestellt(öffnet im neuen Fenster) , rund doppelt so viele wie die 54 Qubits des Vorgängers Sycamore. Der alte Chip machte nach Angaben von Google bei der Manipulation von Qubits auch noch rund dreimal so viele Fehler.
Wenn Willow ein Qubit von einem Zustand in einen anderen versetzt, kommt es nur noch in 0,035 Prozent der Fälle zu Fehlern, bei Prozessen mit zwei Qubits gleichzeitig sind es 0,33 Prozent. Beim Auslesen von Qubits kommt es in 0,77 Prozent der Fälle zu Fehlern und Qubits bleiben im Mittel 68 Mikrosekunden stabil.
Ein zweiter Chip mit etwas anderem Aufbau ist in einigen Metriken noch etwas besser. Allerdings erklärt Google selbst, dass zur Bearbeitung von echten Rechenanwendungen eine maximale Fehlerrate von 0,00000001 Prozent toleriert werden könne. Rechnen kann man mit den Chips also nicht.
Fragwürdige Behauptungen zur Quantenüberlegenheit
Trotzdem behauptet Google, dass der Chip eine Rechnung durchgeführt habe, die mit einem Supercomputer 10.000.000.000.000.000.000.000.000 Jahre gebraucht hätte, also zehn Quadrillionen Jahre. Diese Angaben sind fragwürdig(öffnet im neuen Fenster) und frühere Behauptungen dieser Art haben sich als falsch herausgestellt, am Ende waren es 200 Sekunden. Ohnehin bezieht sich die Behauptung auf die Durchführung zufälliger Rechnungen, deren Ergebnis reine Zufallszahlen sind.
Es ist, als würde man ein Kleinkind zum Mathematikgenie erklären, nachdem es wild auf einem Taschenrechner herumgetippt hat, und dann sagt, dass ein Mathematiker für diese Rechnung von Hand viele Jahre hätte rechnen müssen. Der Philosoph Harry Frankfurter schrieb im Jahr 2005 ein Buch über solche Aussagen. Er nannte es On Bullshit.
Die Fehlerkorrektur allein ist kein Durchbruch
Technisch stellt Willow zweifelsfrei neue Rekorde für die Bauart auf, ist aber in allen Metriken noch viele Größenordnungen von allen praktischen Anwendungen für einen Quantencomputer entfernt, wie auch ein Pre-Print des in Nature veröffentlichten Artikels zu Willow(öffnet im neuen Fenster) besagt. Erstmals sind die Fehlerraten der Chips dabei niedrig genug, dass primitive Algorithmen zur Fehlererkennung und Fehlerkorrektur selbst weniger Fehler verursachen, als sie korrigieren.
Ein echter Durchbruch ist damit keinesfalls geschafft. Denn auch wenn Google im Blog verkündet, die Fehlerraten durch Verwendung von mehr Qubits in der Fehlerkorrektur exponentiell senken zu können, verschweigt das Unternehmen den dafür notwendigen Aufwand. Womit abermals auf das Buch von Harry Frankfurter verwiesen werden muss.
Fehlerkorrektur ist in Quantencomputern sehr viel schwieriger als in digitalen Computern. Physiker Joschka Roffe von der Universität Sheffield hat dazu eine gute Einführung geschrieben.(öffnet im neuen Fenster)
Wie Qubits andere Qubits überwachen
Das erste Problem ist, dass Qubits nicht nur im Zustand "ein" oder "aus" existieren wie herkömmliche Bits. Qubits existieren in der Überlagerung von zwei Quantenzuständen mit zwei komplexen Zahlen als Vorfaktoren, die sich zu einem Betrag von 1 addieren.
Qubits mit komplexen Vorfaktoren haben auch komplexe Fehlerquellen. Es kann nicht nur zu einem Bit-Flip kommen, also dem Übergang von 0 zu 1 und umgekehrt, sondern auch zu Änderungen der Phase der komplexen Zahl. Stark vereinfacht gesagt kann es auch zu einem Bit-Flip im imaginären Anteil des Qubits kommen. Beide Fehler müssen gleichzeitig diagnostiziert (die Fachsprache spricht dabei tatsächlich von Symptomen) und korrigiert werden – ohne den Luxus, irgendwelche Zwischenergebnisse zu speichern und später vergleichen zu können.
Denn Qubits können nicht kopiert werden. Das ist ein großes Problem, denn aus dem gleichen Grund kann der Zustand eines Qubits nicht einfach gemessen und anschließend wiederhergestellt werden. Jede Messung des mathematisch relevanten Zustands eines Qubits zerstört dessen Informationsgehalt.
Tricks mit Vektorräumen ermöglichen Fehlerkorrektur
Quantenphysikalisch wird die Fehlerkorrektur überhaupt nur möglich, weil der Zustand mehrerer Qubits miteinander verschränkt werden kann und sie zusammen einen hochdimensionalen komplexen Vektorraum bilden. Die für Rechnungen relevante Information des Qubits befindet sich aber nur in einem Unterraum dieses großen Vektorraums. Solange Messungen nur so durchgeführt werden, dass sie die restlichen Teile des Vektorraums betreffen, wird die Information des Qubits nicht zerstört.
Wenn es zu Störungen des gemeinsamen Zustandes der Qubits gekommen ist, äußert sich das in gewissen Symptomen, die bei Interaktionen dieser Qubits mit anderen Qubits auftreten. Dafür werden weitere Qubits benötigt, die kontrolliert mit dem hochdimensionalen Zustand der verschränkten Qubits interagieren und so Veränderungen außerhalb des Vektorraums mit den wichtigen Quanteninformationen beobachten. Je mehr Qubits miteinander verschränkt werden, um ein logisches Qubit darzustellen, desto mehr Fehler können erkannt werden – aber nur mit noch mehr Qubits.
All diese Qubits und alle Messungen, die zur Fehlerkorrektur durchgeführt werden, sind aber selbst fehleranfällig und müssen überwacht werden. Wer noch mehr Fehler korrigieren will, braucht noch mehr Qubits, die auf noch mehr Qubits starren. Zur Fehlerkorrektur verwendet Google sogenannte Surface Codes, die sich besonders einfach auf gitterförmigen Quantenchips implementieren lassen und nur Interaktionen zwischen direkt benachbarten Qubits benötigen.
Willow konnte die Fehlerrate halbieren
In Experimenten mit Willow konnte die Rate aufgetretener Fehler halbiert werden, indem 101 von 105 Qubits auf dem Chip verwendet wurden, um ein einziges logisches Qubit mit Fehlerkorrektur zu erzeugen. Zur Verarbeitung der Daten aus der Fehlererkennung zur Implementierung der Fehlerkorrektur für ein einziges Qubit wurden eigens eine spezialisierte Workstation und ein Code auf Basis eines neuralen Netzes entwickelt.
Trotz des Aufwandes gelang es mit der Workstation nicht, mit dem Rechentakt des Chips von 900 kHz in Echtzeit mitzuhalten, sie hätte nur einen Takt von 40 kHz erreicht. Stattdessen kam ein weniger effizienter Echtzeitalgorithmus zum Einsatz, der die Fehlerrate nur halbierte, während anschließende Simulationen mit den Messergebnissen und dem neuralen Netz eine Reduktion um einen Faktor 2,18 zeigten.
Von praktisch nutzbaren Fehlerraten von 10 hoch 10 korrekten Rechnungen pro Fehler ist Google weit entfernt. Bislang treten Fehlerraten in dieser Frequenz allein schon durch Rauschen in der Elektronik auf, die noch weiter verbessert werden muss.
1.357 Qubits sollen ein logisches Qubit darstellen
Am Ende des Papers wird erwähnt, dass für reale Rechnungen notwendige Fehlerraten erreicht werden könnten, wenn 1.357 Qubits bei der Fehlerkorrektur ein logisches Qubit darstellen und die physikalische Fehlerrate der Qubits außerdem nochmals halbiert wird. Die wissenschaftliche Grundlage dafür ist die übermütige Extrapolation eines Graphen mit drei Datenpunkten.
Doch der Aufwand, nur für einen Arbeitsspeicher mit einem logischen Qubit, wäre enorm und nicht praktikabel – zumal der klassische Rechenaufwand zur Fehlerdiagnose kombinatorisch exponentiell mit der Komplexität des Korrekturcodes steigt und die eigens entwickelte Workstation schon mit 101 echten Qubits für ein logisches Qubit stark überfordert ist.
Dazu kommen die technischen Probleme, zur Primfaktorzerlegung Millionen von Qubits auf einem Chip unterzubringen, wenn 105 Qubits schon eine technische Meisterleistung darstellen. Über die Durchführung von Rechnungen mit mehreren dieser logischen Qubits schreibt Google auch nichts – außer dass es eine weitere Herausforderung wäre – und hat auch keine Experimente dazu durchgeführt.
Trotzdem gibt es entfernte Hoffnung für den Quantencomputer.
Zuverlässigere Qubits ermöglichen eine zuverlässigere Fehlerkorrektur
Die Effektivität der Fehlerkorrektur steigt exponentiell mit der fallenden Fehlerrate an. Kein Wunder. Zur Zeit schafft es die Fehlerkorrektur mit den fehlerhaften Qubits nur gerade einmal so, selbst weniger Fehler zu machen, als sie an Fehlern korrigiert. Bessere Qubits machen auch bei der Korrektur weniger Fehler.
Aber auch hier übertreibt Google maßlos damit, praktisch nutzbare Ergebnisse schon mit einer Halbierung der Fehlerrate in Aussicht zu stellen, weil eine Fehlerkorrektur mit 1.356 zusätzlichen Qubits nicht praktisch nutzbar ist und eine Fehlerkorrektur mit weniger Qubits auch weniger stark von niedrigeren physischen Fehlerraten profitiert.
Wesentlich niedrigere Fehlerraten erreicht Microsoft mit einem auf Ionenfallen basierenden Quantencomputer und beschreibt ihn in einem Paper(öffnet im neuen Fenster) , das auch deutlich besser lesbar ist als das von Google. Niedrige Fehlerraten sind der große Vorteil der Ionenfallen, zusammen mit der flexiblen Geometrie, die beliebige Interaktionen zwischen verschiedenen Qubits ermöglicht. Am Ende ermöglicht die höhere Zuverlässigkeit einen wesentlich kleineren Korrekturalgorithmus, der die Fehlerraten auf weniger als ein Zehntel senkt.
Nützliche Quantencomputer sind längst nicht absehbar
Dafür sind Ionenfallen schwerer skalierbar als Chips mit Supraleitern und rechnen etwa 1.000-mal langsamer als supraleitende Qubits, wo Rechenoperationen in Mikrosekunden statt Millisekunden gemessen werden, wovon Microsoft auch nichts schreibt.
Bislang hat noch kein Quantenexperiment frei programmierbare Rechnungen in beliebiger Länge mit zuverlässigen Ergebnissen gezeigt. Selbst dann würde die Zahl verfügbarer Qubits als Arbeitsspeicher nicht für mehr als rudimentäre Demonstrationen eines Quantencomputers ausreichen. Bislang reicht der Arbeitsspeicher nicht einmal aus, um größere Primzahlen auch nur abzubilden und Anwendungen wie der Grover-Algorithmus(öffnet im neuen Fenster) zur schnelleren Durchsuchung von Datenbanken würden genug Qubits benötigen, um die gesamte Datenbank zu speichern.
Fünf Jahre nach Sycamore stellt Willow mit der Verdoppelung der Zahl von Qubits und einem Drittel der Fehlerrate nur einen kleinen Schritt in der Entwicklung eines Quantencomputers dar. In absehbarer Zeit sind mit einer solchen Entwicklungsgeschwindigkeit keine praktischen Anwendungen zu erwarten.



