Popis současného stavu kvantových počítačů rozdělíme na softwarovou, hardwarovou část a ještě zmíníme korekce chyb, které lze provádět na hardwarové i softwarové úrovni. Nebudou zde rozepisovány detaily, ale cílem je spíše vypíchnout, jaké jsou možnosti a na čem se v současnosti pracuje.

Wafer nejnovějších procesoru od D-Wave

Fyzický qubit

Kvantový bit jakožto kvantově mechanický systém, který by měl dosahovat dvou různých stavů lze realizovat různými způsoby. Pro srovnání, současné klasické počítače jsou všechny postavené na stejném fyzikálním principu založeném na tranzistorech. Avšak to nebylo vždy, před tím tu byly například elektronky a jiné. Nicméně polovodiče se prosadily jako nejlepší známé řešení. U kvantových počítačů situace není tak jednoduchá a zatím tady není ani jeden dominantní vítěz a možná ani nebude.

Nyní si nastíníme nejvýznamnější současné realizace kvantových bitů. Více detailů pak bude možno najít v budoucích článcích.

„První kvantový počítač“ a D-Wave

D-Wave je dnes téměř synonymem pro kvantový počítač, který vyvíjí kanadská společnost. Dokonce, jejich kvantový počítač je i v prodeji pro „běžné“ zákazníky. Kvantové počítače D-Wave pracují na principu kvantového žíhání (quantum annealing). Technicky vzato se nejedná o univerzální kvantový počítač, ale spíše specializovaný kvantový čip, který je vhodný na některé úlohy zmíněné v minulém díle tohoto seriálu. Jedním z důsledků je, že nelze kvantově provázat všechny qubity, ale jen část z nich. Konkrétně jsou kvantové čipy založené na kvantovém žíhání vhodné například pro vyhledávající nebo optimalizační úlohy, včetně pro strojové učení. V současnosti D-Wave nabízí svůj stroj 2000Q, který obsahuje 2048 supravodivých qubitů a v současnosti pracuje na čipu s 5000 qubity.

Nyní se však podíváme na hradlové kvantové počítače, tedy opravdu ty univerzální kvantové počítače.

Supravodivé qubity

Kvantové bity realizované za pomoci supravodivosti jsou v současnosti nejrozšířenější typ qubitů. Pomocí této technologie vyrábějí kvantové čipy a procesory výše zmíněný D-Wave, ale i IBM, Google, Intel, Rigetti a další. Výhodou je, že fyzicky jsou tyto qubity velké a lze je snadno vyrobit. Nevýhodou však je, že z principu supravodivosti musejí pracovat při teplotách blízkých nule a rovněž škálování této technologie na desetitisíce a miliony qubitů je velice obtížná.

V případě kvantového žíhání momentálně se dosahuje řádově 2000 tisíc qubitů a pracuje se na 5000. V případě univerzálních kvantových čipů se dosahuje řádově 70 qubitů.

IBM kvantový procesor se sedmi supravodivými qubity.

Iontové qubity

Iontové qubity jsou založené na uvěznění a následném ovládání jednotlivých iontů (atom s menším počtem elektronů než protonů). Tato technologie je mnohem náročnější na realizaci, zato nabízí lepší možnosti škálování. Testování a experimenty se současnými procesory s 11 qubity (IonQ) také ukazují, že tento design qubitů je obzvláště vhodný pro simulace kvantových systémů.

Kvantové tečky

Kvantové bity realizované pomocí kvantových teček mají výhodu poměrně dobré stability a možnost poměrně přesné výroby, která je však také drahá. Na druhou stranu, kvantové tečky nejsou úplně novou technologií a v oblasti nanotechnologií již nějaký ten čas své uplatnění nacházejí, např. LED televize a monitory s využitím kvantových teček. Touto technologií se zabývají např. ve společnosti Intel, kde dosahují 26 qubitů.

Topologické qubity

Topologické qubity jsou stále ve fázi výzkumu a čekáme na první plně funkční čip. Přesto tato technologie poutá zájem, hlavně kvůli tomu, že mají obrovský potenciál být mnohem méně náchylnější k rušení z okolního šumu, který je obecně největší nepřítel stability qubitů. Tím pádem budeme potřebovat méně qubitů. Jedním z hlavních výzkumníků v tomto směru je i Microsoft.

Ostatní

Pak tady jsou další technologie jako NV centra, neutrální atomy apod. Obecně, když mluvíme o qubitech, tak sledujeme několik parametrů, jako je střední doba koherence, rychlost kvantově logických operací, jejich spolehlivost, možnost kvantového provázání všech qubitů apod. Velice také záleží i na konkrétním designu čipu, který ovlivňuje rychlost počítání, náchylnost k chybám, škálování do více qubitů, samotné ovládání jednotlivých qubitů apod.

Jedná se o velice komplexní vývoj a než se dostaneme do období kvantových čipů, které už budou vhodné pro plnohodnotné aplikace, ještě si počkáme. Obecně plánuje optimismus, že se toho dočkáme. Ohledně časové škály kdy se tak stane, se vědci už více rozcházejí. Obecně je souhlas, že do takového stavu se dostaneme v příštích deseti až čtyřiceti letech.

NISQ éra

Ještě jedna poznámka k hardwarové části. Současná éra kvantových počítačů se označuje i jako tzv. NISQ éra (Noisy Intermediate-Scale Quantum). NISQ označuje éru kolem 50 qubitů, kde jsme už na hranicí počtu qubitů, které jsme schopni simulovat na klasických superpočítačích. Na takovýchto čipech jsme schopni provést první ověření koncepce (proof-of-concept) nejrůznějších algoritmů a aplikací, ale stále počet qubitů je daleko pod hranicí, které budeme potřebovat na rutinní běh aplikací.

Kvantový software

Jak bylo napsáno v minulém článku, za poslední tři roky vzniklo spoustu start-up a spin-off společností po celém světě (hlavně USA, Kanada, Spojené Království, Austrálie, Německo, Čína…). Start takových firem v oblasti kvantového software je technicky nenáročný. V podstatě je potřeba jen počítač ideálně s větší pamětí (více paměti = více simulovaných qubitů). Navíc zde již existuje celá škála knihoven a vývojových platforem pro kvantové programování, např. Q# nebo qiskit.

Navíc, spousta větších firem v oboru spouštějí vlastní cloudové služby, které nabízejí vlastní simulátory, vlastní platformu a některé i pak vzdálený běh na reálném kvantovém procesoru. Některé tyto služby jsou dostupné i zdarma. Zmiňme např. IBM Q, D-Wave Leap, Azure Quantum od Microsoftu, Rigetti Quantum Cloud Services, nebo Amazon Braket.

To, co je náročné pro start takové firmy, jsou samotní lidé. Kvantové programování se koncepčně hodně liší od toho klasického. Resp. z hlediska kódu to vypadá podobně, ale vlastní logika je velice odlišná. Proto je vhodné mít v týmu lidi, kteří mají základní znalosti a osvojení kvantové informatiky. Obecně je poptávka po takových lidech větší, než je jejich současná produkce na univerzitách.

I z těchto důvodů lze v tomto oboru vidět velice široká partnerství a spolupráce, hlavně na ose firmy-univerzity, které jsou významnými nositeli znalostí v tomto oboru.

Kvantový programovací jazyk Q# od společnsoti Microsoft.

Kvantové simulace pro chemii a famaceutický průmysl

V minulém díle jsme psali, že pokud budou funkční kvantové procesory s velkým množstvím qubitů, tak to změní celý chemický a farmaceutický průmysl, kde se velká část výzkumu přesune z laboratorních experimentů typu pokus-omyl do počítačů a pokročilých simulací jednotlivých molekul.

Toho si jsou někteří lidé vědomí a proto zakládají společnosti zaměřující se právě na tuto oblast. Jednou z nich je výše zmíněný IonQ, který pracuje i na vlastních procesorech. IonQ na svém čipu například úspěšně demonstroval simulaci molekuly vody. Molekula vody není moc složitá a lze ji simulovat i klasickým počítačem, ale byla to úspěšná demonstrace konceptu, která i ukázala efektivnost jejich procesoru.

Je tu pár společností, které se zaměřují obecně na výzkum i návrh molekul pomocí simulací včetně populárního a moderního zapojení strojového učení a umělé inteligence. Zmiňme společnosti jako např. Bleximo, ApexQubit, Entropica Labs, HQS Quantum Simulations, NetraMark nebo Riverlane. Významný příspěvek v této oblasti má i Microsoft.

Strojové účení a umělá inteligence

Strojové učení a umělá inteligence je jako zaříkávadlo dnešní doby a v oblasti klasických IT roste AI firem jako hub. Tento „hype“ se nevyhnul ani kvantovým počítačům, kde by kvantové optimalizační algoritmy opravdu mohly pomoci k efektivnější umělé inteligenci. Jmenujme ty z velkých společností jako AT&T či Google, ale hlavně je tu spousta malých firem jako Black Brane Systems, CogniFrame, GTN, MDR, NetraMark, QC Ware, QxBranch, Riverlane, Solid State AI či Xanadu.

Bezpečnost

Další významnou oblastí je bezpečnost a šifrování. V tomto případě se jedná hlavně o výzkum kvantově odolných šifrování a vhodných protokolů pro QKD (quantum key distribution) – kvantovou distribuci klíče. Tomuto tématu se budeme vice věnovat v budoucích článcích pojednávajících o kvantových sítí a internetu.

Snad jenom dodejme, že v současnosti probíhá standardizace v oblasti kvantově odolných šifrování. Je zde několik kandidátů, např. eliptické křivky. Nicméně je zde potřeba ještě spousta výzkumů, abychom si byli jisti, že dané protokoly jsou opravdu bezpečné. I samotní představitelé NSA (americká agentura pro národní bezpečnost) upozorňují na to, aby se tento proces příliš neuspěchal, neboť děravý protokol v budoucnu může nadělat více paseky než současná šifrování, která mohou být prolomena kvantovými počítači v budoucnu.

Kvantová nadvláda

Kvantová nadvláda (quantum supremacy) je bod, kdy kvantové počítače vyřeší danou úlohu mnohem rychleji než klasický počítač. Takou nadvládu oznámil Google v druhé polovině roku 2019 se svým procesorem Sycamore (53 qubitů). Demonstrace síly ukázal na algoritmu, který je jenom demonstrační a nemá žádné praktické využití. Navíc výzkumníci tvrdí, že klasickému počítači by vyřešit takový algoritmus trvalo řádově 10 000 let. Nicměně tomu oponovali vědci z IBM s tím, že stejný problém s pomocí klasických superpočítačů by byli schopni vyřešit za 3 dny.

Komunita je tímto ohlášením Google trochu rozmělněná. Ze strany Goooglu se jedná spíše o marketingový tah, než opravdovou kvantovou nadvládu. Nicméně to přitáhlo dost pozornosti i mimo obor.

Také to více rozvířilo debatu na téma, jak měřit kvantové schopnosti, výkonnost a „nadvládu“ různých kvantových procesorů.