Verglichen mit klassischen Computern sind Quantencomputer zarte Geschöpfe. Sie rechnen mit Quantenzuständen. Ihre kleinsten Recheneinheiten, die Qubits, rechnen nicht nur mit null und Eins, wie das klassische Computer tun, sondern auch mit Überlagerungen der beiden, also auch Zuständen dazwischen.
Was potenziell interessant für viele Anwendungen ist, führt aber dazu, dass Quantencomputer viel sensibler sind. Denn Quantenzustände zerfallen mit der Zeit. Zudem können Umwelteinflüsse, zum Beispiel kleine Temperaturschwankungen, die Quantenzustände verschieben. So entstehen viele Fehler. Das Verflixte dabei: Je mehr Qubits man zu einem Quantencomputer zusammenbaut, desto fehleranfälliger wird das System in der Regel.
Hier setzt die Methode der Fehlerkorrektur an, bei der Google nun ein wichtiger Schritt gelungen ist. Das Prinzip: Man verbindet viele fehleranfällige Qubits auf spezielle Art in ein weniger fehleranfälliges System, ein sogenanntes logisches Qubit. Eine Symmetrieeigenschaft der Quantenphysik sorgt dafür, dass Fehler in diesen logischen Qubits entdeckt werden.
Mehr ist doch besser
Eine Gruppe um ETH-Professor Andreas Wallraffs konnte vor einem Jahr zeigen, dass diese Fehlerkorrektur mit Gruppen von 17 Qubits funktioniert. Google ist einen Schritt weitergegangen. Ein Forschungsteam konnte zeigen, dass die Fehlerkorrektur mit noch mehr Qubits noch besser ist.
Googles Methode mit 49 Qubits ist zwar nur minim besser ist als jene mit 17 Qubits. «Man hat die Hürde knapp übersprungen,» sagt Andreas Wallraff zur Google-Studie, aber das sei trotzdem ein Meilenstein.
Die Arbeit zeige, was viele gehofft hätten: «Wenn man mehr und mehr Qubits nimmt, wird das logische Qubit immer besser.»
Raus aus dem Teufelskreis
Dass die Fehlerkorrektur besser wird, je mehr Qubits man dafür verwendet, klingt einleuchtend. Doch für Quantencomputer ist das nicht selbstverständlich, wie Andreas Wallraff sagt: «Man hätte auch mehr Qubits dazu packen können und das logische Qubit wäre schlechter geworden.»
Denn je grösser ein Quantencomputer ist, umso mehr Arten von Fehlern können auftreten. Der Teufelskreis, dass man sich mit mehr Qubits noch mehr Fehler einheimst, als man korrigieren kann, scheint durchbrochen.
Das Hardware-Problem
Doch die Methode hat ihren Preis. Sie treibt die Anzahl benötigter Qubits in die Höhe. Benötigt man für eine Anwendung beispielsweise 100 fehlerkorrigierte Qubits, bräuchte man mit Googles neuster Methode tatsächlich 4'900 Qubits. Das ist rund zehnmal mehr als im derzeit grössten Quantencomputer.
Dazu kommt ein weiteres Problem. «Wenn man viele Qubits zusammenbringt auf engem Raum, werden die einzelnen Qubits typischerweise schlechter», sagt Andreas Wallraff. Deshalb reiche es nicht, immer mehr Qubits zur Fehlerkorrektur zu verwenden, sagt Wallraff.
Weit entferntes Ziel
Was es braucht, sind deutlich weniger fehleranfällige Qubits, die auch dann nicht in der Qualität abnehmen, wenn man sie eng aufeinander zu grossen Quanten-Chips zusammenbaut. Andreas Wallraff hofft, dass in Zukunft die einzelnen Qubits um Faktor 10 oder sogar Faktor 100 genauer sind.
Erst dann könnte diese Art der Fehlerkorrektur, wie sie etwa Google und die ETH Zürich erforschen, ihre Stärken richtig ausspielen. Davon ist die Forschung noch weit entfernt. Das Problem der fehleranfälligen Quantencomputer ist also bei weitem nicht gelöst.