Quantencomputer: IBM präsentiert 433-Qubit Quantenprozessor
Mit 433 Qubits ist der neue von IBM präsentierte Osprey Quantenchip(öffnet im neuen Fenster) eine Weiterentwicklung der bisher verfügbaren Chips mit 65 und 127 Qubits. IBM behauptet, dass mehr Bits benötigt würden, um den vollständigen Zustand der 433 Qubits zu beschreiben, als es Atome im Universum gebe. Derweil gilt aber auch für Qubits, dass sie nach dem Auslesen nur eine 1 oder eine 0 darstellen können und Osprey somit weniger als 54 Byte verarbeiten kann, inklusive aller Qubits die der Algorithmus zur Verarbeitung der Daten selbst benötigt.
Im Vergleich zu früheren Chips sollen integrierte Filter zu einer Verbesserung der Fehleranfälligkeit(öffnet im neuen Fenster) führen, das geht aber mit einer deutlich langsameren Rechengeschwindigkeit einher. Es handelt sich dabei aber nicht um echte Fehlerkorrektur, die für einen universellen Quantencomputer zur Ausführung beliebiger Algorithmen unverzichtbar ist. Vielmehr ist es eine Kompensation des bekannten Rauschverhaltens in der Hoffnung, mehr Rechenschritte durchführen zu können, bevor das Ergebnis durch das Rauschen unrettbar verloren ist.
Für 2024 ist außerdem der Quantencomputer Heron mit drei Chips aus je 133 Qubits geplant. IBM hofft damit, eine Fehlerrate von weniger als 0,1 Prozent pro Rechenschritt zu erreichen. Die drei Quantenchips sollen dabei nur über herkömmliche Signaltechnik miteinander verbunden werden, die auch keine Quantenteleportation erlaubt. Für spätere Konstruktionen ist das aber geplant.
Größere Chips und trotzdem fehlen Anwendungen
Das Fehlen echter Fehlerkorrektur oder rauschfreier Hardware sowie die Probleme bei ihrer Entwicklung sind wohl der Grund, weshalb IBM für 2024 die 100x100-Challenge ins Leben gerufen hat. Bis 2024 soll es möglich sein, mit Heron 100 aufeinanderfolgende Rechenschritte mit 100 Qubits durchführen zu können und in der statistischen Auswertung trotz des Signalrauschens brauchbare Ergebnisse zu erhalten. Selbst wenn Heron wie geplant funktioniert, fehlen IBM allerdings nützliche Anwendungen für so stark eingeschränkte Rechenfähigkeiten und mit weniger als 12 Byte an Daten, die durch die Challenge gefunden werden sollen.
Während IBM in den Jahren bis 2025(öffnet im neuen Fenster) den Bau von Computern mit immer mehr Qubits wie Flamingo, Condor und Kookaburra mit über 4.000 Qubits plant, fehlt in der Roadmap die dauerhafte Stabilisierung der Qubits durch Fehlerkorrekturalgorithmen, in denen jeweils 10 oder mehr physische Qubits auf dem Prozessor zusammen ein stabiles logisches Qubit bilden.
Der Autor meint dazu:
Von der Entwicklung eines universellen Quantencomputers, selbst für kleine Datenmengen, scheint IBM noch weit entfernt. Die Anwendung des nachweislich mit Quantencomputern überlegenen Grover-Sortieralgorithmus(öffnet im neuen Fenster) für große Datenbanken bleibt noch auf lange Zeit reine Science-Fiction. Selbst die Nutzung von Shor's Algorithmus(öffnet im neuen Fenster) zur Primfaktorzerlegung scheitert daran, dass es nicht genug Qubits zur Darstellung der zu zerlegenden Zahl gibt und die Zerlegung bei gebräuchlichen Schlüssellängen auch mit Quantencomputern Milliarden von Rechenschritten benötigen.(öffnet im neuen Fenster)
- Anzeige Hier geht es zu Hacking & Security: Das umfassende Handbuch bei Amazon Wenn Sie auf diesen Link klicken und darüber einkaufen, erhält Golem eine kleine Provision. Dies ändert nichts am Preis der Artikel.



