Nový kvantový procesor Willow. Kredit: Google

Google, respektive Google Quantum AI, dnes světu představili svůj nejnovější kvantový procesor zvaný Willow. Willow má 105 supravodivých fyzických qubitů a váží se k němu dvě podstatné rekordy. Zaprvé, procesor Willow v kombinaci s korekčními kódy je schopný exponenciálně redukovat kvantové chyby s tím, jak používá více qubitů. A za druhé, Willow je schopný pod pět minut spočítat RCS úlohu v takovém rozsahu, že by to zabralo nejlepším dnešním superpočítačům 1025 let! Tak se na to pojďme podívat.

Prvně musím říci, že tentokrát Google ke svým špičkovým výsledkům nepřidává další zbytečné přívlastky jako je dosažení kvantové výhody nebo nadvlády. Již je to pět let, co v roce 2019 Google představil svůj první kvantový procesor Sycamore s 56 qubity a rovnou oznámil kvantovou nadvládu s tím, že ten procesor spočítal RCS úlohu (o této úloze více dále) za pár minut, zatímco klasický počítač by potřeboval 10 000 let. Za pár dní přišlo IBM, že danou úlohu na svých superpočítačích umí spočítat za tři dny. A dnes stejnou úlohu jako řešil Sycamore už umíme spočítat také v řádu minut na klasických počítačích. A vlastně stejná historie se opakovala u podobného čínského prohlášení o kvantové nadvládě.

Kvantový benchmark

Co to tedy je to RCS? RCS je zkratka z anglického random circuit sampling. Google tuto teoretickou úlohu, která nemá pražádného praktického využití, používá konsistentně. Ale ostatní hráči zase až tak moc ne. Google to ospravedlňuje tím, že se jedná o nejtěžší benchmark pro kvantové počítače. Já bych asi až tak nesouhlasil, například Quantum Volume je ještě těžší, a to až tak, že žádný výrobce supravodivých procesorů s větším množstvím qubitů jej nepoužívá. A druhý argument je, že jakýkoliv kvantový počítač, který by měl dosáhnout kvantové výhody bude muset nejdříve stejně mít vysoké skóre i pro RCS. S tím se dá asi docela souhlasit.

Stále můžeme očekávat, že klasické počítače se v RCS budou zlepšovat. Google svůj výsledek porovnával se superpočítačem Frontier a navíc byl i konzervativní a zanedbal různá fyzická omezení klasických počítačů. Například tato úloha je velmi náročná na paměť, a i šířka pásma komunikace mezi RAM a CPU hraje roli. Nicméně prezentovaný výsledek na procesorech Willow je tak daleko, že již je reálné, že klasické počítače ty kvantové již nedostihnou.

Logické qubity a potlačení kvantových chyb

Druhá novinka je o exponenciální redukci kvantových chyb a logických qubitech. Již dávno víme, že jen s fyzickými qubity si nevystačíme. Pro příklad, chybovost jednoqubitových operací je okolo 0.035 %. A toho dosáhnou jen ty nejlepší qubity. Jenomže pro praktické výpočty bychom potřebovali dosáhnout chybovost řádově 10-5 % a méně. A k tomu se jen vylepšováním fyzických qubitů technologicky nedokážeme dostat. Proto se pak bavíme o logických qubitech. Jedná se o několik fyzických qubitů s korekčními mechanizmy, které se pak tváří jako jeden „logický“ qubit, který ideálně má menší chybovost než fyzický qubit. Výzvou však je, že kvantová informace nelze zkopírovat. To znamená, že si nemůžeme vše dělat dvakrát, nebo nějaké zálohy vůči kterým bychom dva qubity jednoduše porovnali. Proto korekční mechanismy jsou násobně složitější než pro klasické počítače. 

V případě supravodivých čipů, nejčastějším mechanizmem pro korekci chyb je tzv. surface code. Jedná se o matice fyzických qubitů, která pak, jednoduše řečeno, tvoří jeden logický qubit. V teorii, čím větší matici vezmeme, tím menší chyby bychom měli dosáhnout. Jenomže větší matice znamenají větší počet těch nedokonalých fyzických qubitů a tím pádem více chyb i v korekčním mechanismu. Tyto dvě věci jdou přímo proti sobě. To znamená, že u většiny dnešních kvantových počítačů převáží chyby z většího množství qubitů. Avšak Willow se dostal pod tuto mez, kdy s větším počtem qubitů výsledná chyba naopak klesala. Experimentálně testovali matice pro surface code 3×3, 5×5 a 7×7 a s každou větší maticí výsledná chyba byla poloviční než před tím. Tedy poloviční chyba s každým krokem ve velikosti matic, tedy s více fyzickými qubity, vlastně znamená exponenciální potlačení kvantových chyb. Toho se Googlu podařilo dosáhnout díky několika inovacím hlavně jako je vylepšení parametrů fyzických qubitů, ale i díky korekci kvantových chyb v reálném čase, a i na straně vylepšení korekčních mechanismů. To je vidět i na obrázku níže, kde pro matici 7×7 použili celý kvantový procesor Willow.

Google na dobré cestě, ale brod je ještě daleko

V tomto okamžiku můžeme mluvit o Willow jako o novém králi mezi kvantovými procesory. Zatím za ten nejlepší byl považován kvantový procesor IBM Heron, který byl nedávno upgradován na 156 qubitů. Ačkoliv Heron má více qubitů, tak jejich kvalita je nižší, než kvalita qubitů u Willow díky čemuž Willow dosáhl již výše zmíněných výborných výsledků a rekordů. Škoda jen je, že Google své kvantové čipy nedává k dispozici širší veřejnosti skrze cloud jako IBM.  Níže na obrázku je roadmapa Google. A Google je na velmi dobré cestě k prvnímu opravdovému logickému qubitu, který má dlouhou dobu koherence, tedy zvládne miliardy kvantových operací.

Takže jaký je závěr. Google neprezentoval žádnou kvantovou nadvládu nebo výhodu. Ostatně odborná komunita začíná na tyto pojmy být alergická, jak každé marketingové oddělení si to ohýbá dle sebe. Za to Googlu plus nahoru. Takže ne, ani Willow nepředstavuje moment, kdy by kvantový procesor byl lepší než váš laptop pro nějaké praktické výpočty. Nicméně ukázali cestu, která by měla fungovat a můj odhad je, že za 1-3 roky uvidíme první případ kvantové výhody (možná u Google, možná u konkurence), tedy, že kvantový počítač spočítá něco praktického rychleji, než klasický superpočítač. Nebude to o moc, ale bude to tam.

Čtenář by po přečtení mohl nabýt dojmu, že teď stačí postavit jen velký kvantový čip s tisíci fyzickými qubity o kvalitě jako má Willow nebo lepší a máme vyhráno. No, ono to tak lehké nebude. Willow má nyní 105 qubitů. Ke každému qubitu obvykle vedou 2-3 koaxiální kabely pro jeho řízení. Takže, když se podíváte na obrázek níže, tak ten „zlatý lustr“, tedy vnitřek kryogenického chlazení je opravdu plný kabelů (kvantový čip je relativně docela malý úplně dole). No a třeba pro 1000 qubitů toho potřebujete 10krát tolik. To potřebujete větší kryogenický systém. Samozřejmě je zde i velmi aktivní a poměrně úspěšný směr výzkumu a vývoje pro redukci této kabeláže a bez toho to rozhodně nepůjde. Dalším problémem může být chladící médium – Hélium. To se prakticky přirozeně nevyskytuje (zpravidla se získává jako vedlejší produkt u jaderných zbraní) a konkurentů pro jeho použití jen pro kvantové počítače je hodně, nejen supravodivé qubity ale i křemíkové nebo pro fotonické kvantové počítače jej potřebují pro vlastní chlazení nebo pro chlazení detektorů.

Tedy, jsme na velmi dobré cestě k praktickým kvantovým počítačům, kde právě výborně Google prezentoval, že je schůdná. Nicméně, brod, za který se potřebujeme dostat, je ještě daleko.