Prof. Dr. G. Hellberg EDV Beratung und Softwareengineering seit 1984

Mailadresse fuer Kontaktaufnahme
NewsNews
 
Die Hellberg EDV Beratung ist SuSE Business Partner
 
Professor Hellberg ist Certified Novell InstructorDie Hellberg EDV Beratung ist Novell Business Partner
 
Die Hellberg EDV Beratung ist Microsoft Partner
 
GDATA Software
 
 
News

Ein Forschungsteam von Google Research behauptet, mit ihrem Quantenprozessor Sycamore eine Aufgabe gelöst zu haben, die die Rechenkapazität von klassischen Supercomputern übersteigt. Oft wird diese Fähigkeit als Quantenüberlegenheit bezeichnet.

Google-Forscher haben bereits im Jahr 2019 behauptet, mit einem früheren Sycamore-Modell Quantenüberlegenheit demonstriert zu haben. In 200 Sekunden sollte der Chip mit 53 supraleitenden Qubits eine Aufgabe gelöst haben, für die ein Supercomputer 10.000 Jahre gebraucht hätte. Allerdings zeigte IBM wenige Tage später dann, dass ein Supercomputer diese Aufgabe mit den richtigen Methoden in nur 2,5 Tagen lösen kann.

Google hatte die Rechenaufgabe extra dafür konzipiert, von einem Quantencomputer schneller gelöst werden zu können als von einem klassischen Supercomputer. Es gab keinen mathematischen Beweis für die Überlegenheit des Quantencomputers, noch einen praktischen Nutzen. Es hatte noch nie jemand zuvor versucht, das spezielle Problem effizient mit einem Supercomputer zu lösen.

An die Ergebnisse aus dem Jahr 2019 schließt die neueste Publikation des Forschungsteams um Alexis Morvan, Benjamin Villalonga, Xiao Mi und Salvatore Mandra von Google Research und vom Quantum Artificial Intelligence Lab des NASA Ames Research Center an und wurde im Fachmagazin Nature veröffentlicht. "Dieses Paper nimmt die Technik der Arbeit von 2019 auf und macht sehr vieles sehr viel besser." sagte Frank Wilhelm-Mauch, Leiter des Instituts für Quantencomputer-Analytik vom Forschungszentrum Jülich.

"Random Circuit Sampling" ist der Name der Aufgabe, die der Quantencomputer lösen soll und handelt um einen Quantenalgorithmus, der eine Reihe von Zufallszahlen generiert. Die Forscher führen eine Reihe von zufällig ausgewählten Quantengattern (quantenphysikalischen Rechenoperationen) aus, um die Qubits in eine komplizierte Konfiguration zu bringen, die für klassische Computer schwierig zu simulieren ist.

Sabine Wölk vom DLR-Institut für Quantentechnologien sagt: "Mir ist kein praktischer Nutzen von Random Circuit Sampling bekannt". Es gebe aber sogenannte variationelle Quantenschaltkreise, welche ähnlich aufgebaut sein könnten wie die von Google erzeugten "random circuits. [...] Von diesen variationellen Quantenschaltkreisen erhofft man sich einen Quantenvorteil, zum Beispiel bei der Berechnung von chemischen Energien oder im Bereich des maschinellen Lernens."

Die Google-Forscher betiteln ihre Publikation nun "Phase transitions in random circuit sampling". Die Forscher schreiben erst im Abstrakt, "dass die Rechenkosten unseres Experiments die Möglichkeiten bestehender klassischer Supercomputer übersteigen."

Bereits kleinste Störungen zerstören die für Quantencomputing wertvolle Quanteninformation. Bereits nach wenigen Rechenoperationen werden die Ergebnisse einer Berechnung verrauscht und unbrauchbar. Unklar ist, wie stark das Rauschen beziehungsweise die Fehlerquote sein darf, damit ein Quantencomputer brauchbare Ergebnisse liefert.

In der neusten Veröffentlichung behaupten die Google-Forscher, die Bedingungen besser verstanden zu haben, unter denen ein Quantencomputer einen Vorteil gegenüber klassischen Systemen liefern könnte. Das Team hat in seinem Experiment das Rauschen des Quantenprozessors stufenweise erhöht. So haben sie die Qubits absichtlich gestört, um herauszufinden, wann der Chip seine Quantenüberlegenheit verliert.

Die Forscher verwendeten dabei eine neue Version des Sycamore-Prozessors mit 67 supraleitenden Qubits. So fanden sie heraus, dass eine Verringerung der Fehlerquote dazu führt, dass die Ergebnisse der Quantensimulation nicht mehr von einem klassischen Supercomputer simuliert werden konnten. Damit ein Supercomputer die gleiche Rechnung ausführt, bräuchte er 10 Billionen Jahre, schätzen die Forscher.

Wölk erklärt, dass es für perfekte Quantencomputer einfach sei, die Schwelle zu identifizieren, ab der sie klassischen Computern überlegen sind. Dies sei bei fehlerbehafteten Quantencomputern, wie sie heute existieren, nicht so einfach. "Die Ergebnisse helfen, die Qualität realer Quantenhardware einzuschätzen und ob es überhaupt möglich ist, einen Quantenvorteil mit realer existierender Quantenhardware zu erzeugen." "Sie helfen uns einzuschätzen, wie weit die reale Quantenhardware bereits ist", sagt sie.

Wilhelm-Mauch sagt:. "Hiermit wird zementiert, dass Quantencomputer klassischen Computern auch dann überlegen sind, wenn sie nicht perfekt sind". "Allerdings ist es weiterhin ein synthetischer Benchmark, der sich nicht ohne weiteres in eine echte Anwendung übersetzen lässt."

(ts, hannover)

(siehe auch: Heise-News-Ticker)

Hannover · EDV-Beratung · Linux · Novell · Microsoft · Seminar · IT-Consult · Netzwerk · LPIC · CLE