米国の量子コンピュータ開発の流れ、2020年は量子アルゴリズムと高信頼性量子プロセッサの開発が進む

シリコンバレーで2019年12月、量子コンピュータのカンファレンス「Q2B」(#Q2B19)が開催された。これはQC Wareが主催するもので、IBMやGoogleやMicrosoftなど大手企業の他に、RigettiやIonQやCambridge Quantum Computingなど主要ベンチャー企業が新技術を紹介した。民間企業だけでなく、それを支える大学や政府機関も加わり、最新技術が議論された。

出典: VentureClef

John Preskill教授の基調講演

民間企業で量子コンピュータ開発が進むが、物理学の観点からその基礎概念と開発ロードマップが示された。カリフォルニア工科大学(California Institute of Technology)教授John Preskillは基調講演で、量子物理学の観点から技術の流れを説明し、量子コンピュータ開発の方向性を提示した(上の写真)。Preskillは量子コンピュータの生みの親であるRichard Feynmanの流れを引き継ぎ、量子コンピュータ業界を理論面でけん引している。

2020年の開発方向

Preskillは「What’s Next After Quantum Supremacy?」と題して、量子コンピュータがスパコンを越えた次はどこに向かうべきかその指針を示した。因みに、スパコン越え「Quantum Supremacy」というコンセプトはPreskillが提唱したものである。Googleの量子コンピュータ「Sycamore」はこれを達成したとの認識を示し、講演では、量子アプリケーション開発と量子プロセッサの信頼性向上が次の目標になるとの見解を明らかにした。

量子アプリケーション開発

IBMやGoogleは量子コンピュータのプロトタイプ(NISQ:Noisy Intermediate-Scale Quantum技術)を開発し一般に公開している。NISQとは中規模でノイズが高い(エラー発生率が高い)量子コンピュータで、稼働時間は短く、大規模な演算を実行できない。次は、このNISQで量子アプリケーションを開発することが目標となる。不安定なプロセッサで社会に役立つ量子アプリケーションを開発することが問われている。

量子アプリケーション候補1:最適化問題

Preskillは、NISQタイプの量子コンピュータが単独でスパコンの性能を超えることは難しいとみている。このため、量子コンピュータを現行コンピュータと連結したハイブリッド構成でアプリケーションを実行することが解になる。この構成では最適化処理のアプリ「Optimizer」が有力候補となる。具体的には、Quantum Approximate Optimization Algorithm (QAOA)などのモデルを示した。(下の写真、現行コンピュータで最適化アプリを実行するが、その一部を量子プロセッサにアウトソースする。現行コンピュータは演算結果を受け取り、最適化が進む方向を探り、このプロセスを繰り返す。)

出典: VentureClef

量子アプリケーション候補2:機械学習

人工知能や機械学習がブームであるがPreskillはこれに対して厳しい見方を示している。特に、深層学習(Deep Learning)は、動作メカニズムが分からないまま経験的に使われており、論理的な解明が必要であると指摘する。一方、量子コンピュータで機械学習アルゴリズムが上手く稼働する可能性についても述べた。量子コンピュータを使ったニューラルネットワークの教育(Quantum Deep Learning Network)が研究テーマになるとしている。ニューラルネットワークの教育では大量のデータを必要とし、これらをQubitにエンコードする。このために、量子メモリ「Quantum Random Access Memory」の開発が必要となる。QRAMとは情報をQubitに格納する記憶装置で、量子コミュニケーションでも必須技術となるため研究開発が進んでいる。一方、大規模なデータをQRAMに読み込ませるには時間がかかるため、結局、機械学習アルゴリズムを量子プロセッサで実行してもスパコンに勝てない可能性もある。このため、データを量子状態のままで入出力する量子機械学習アルゴリズムに着目するよう述べた。本当に機械学習アルゴリズムを量子プロセッサで高速化できるのか、ブレークスルーを目指して研究が進んでいる。

量子プロセッサの信頼性向上1:エラー補正技術

Preskillが提案するもう一つの柱は量子プロセッサの信頼性をあげるための技術開発である。NISQで量子アプリケーションを実行するには、プロセッサの信頼性を上げることが必須条件となる。今の量子プロセッサはエラーが発生してもそれを補正する機構はなく、次の目標はエラー補正「Quantum Error Correction (QEC) 」機構を備えたシステムの開発となる。Qubitで発生するエラーを補正するためには別のQubitが必要となる。1つのQubitのエラーを補正するためには複数のQubitが必要になる。例えば、暗号化アルゴリズム「RSA 2048」を実行するためにはエラー補正のQubitを含めシステム全体で2000万個のQubitが必要になるとの研究もある。これではハードウェアの負担が重すぎるため、ソフトウェアでエラーを補正する技術の開発が進んでいる。これは「Surface Code」と呼ばれ、コードで量子プロセッサのエラーを補正する操作を実行する。QECとSurface Codeを併用することで実用的な高信頼性マシンが生まれる。

出典: VentureClef

量子プロセッサの信頼性向上2:Qubitのアーキテクチャ

最終的には、Qubit自体の信頼性をあげることが究極の解となる。ノイズに耐性があり安定して稼働するQubitの素材やアーキテクチャが見つかれば、量子プロセッサの信頼性が一気に向上する。Preskillはこの観点から、GKP Codes、Zero-Pi Qubit、及び、Topological Quantum Computingが有望であるとしている(上の写真)。Topological Quantum ComputingとはMicrosoftが開発している技術で、位相にデータをエンコードするもので、けた違いに安定したQubitができる。しかし、まだ物理的にQubitは生成されておらず、長期的な研究が必要となる。今は、IBMやGoogleが採用しているSuperconducting Qubitという手法が主流であるが、Preskillは他のアーキテクチャの探索が重要で、どこかで大きなブレークスルーが生まれることに期待を寄せている。また、Spin Qubitsという手法で大きな進展があったとしている。Spin QubitsとはIntelが開発している技法のひとつで、シリコンの穴に電子をトラップし、電子のスピンでQubitを生成するもの。量子プロセッサの基本方式は雌雄が決着しておらず試行錯誤が続いている。(IBMのスタッフにSuperconducting Qubitが主流になるかと尋ねると、そう願いたいがまだ確信は持てない、と正直な感想を話してくれた)。

産学共同で産業を育成

カンファレンスで多くの参加者と話をすると、量子コンピュータ開発は黎明期で、基礎研究と製品開発が同時進行していることを痛切に感じた。ちょうど、スパコン開発が始まったころの状況に似ており、プロセッサの素材やアーキテクチャなどの基礎研究が進み、その成果をもとに製品の方向が決まりつつある。そのため、企業だけでなく大学や政府の基礎研究が極めて重要な役割を担い、製品開発を下支えしている。米国の産学が一体となって技術を積み上げ、量子コンピュータ産業を育成していることを肌で感じた。