カテゴリー別アーカイブ: 量子コンピューター

Googleの量子コンピュータ開発、次はNISQでブレークスルーを起こす

Googleが発表した量子コンピュータ「Sycamore」(下の写真)は「Quantum Supremacy(スパコン越え)」に到達したのか判断が分かれているが、プロセッサは論理設計通りに稼働し、多数のゲート演算を実行し、大きなマイルストーンとなった。Sycamoreはエラーを補正する機構は搭載しておらず、大規模な演算を実行することは難しい。この種類の量子コンピュータは「Noisy Intermediate-Scale Quantum (NISQ)」と呼ばれ、ノイズが高く(エラー率が高く)、中規模構成(50から100Qubit構成)のシステムとなる。これからNISQで量子アルゴリズム開発が始まる。 果たしてNISQという不安定な量子コンピュータでキラーアプリを開発することができるのか、世界が注目している。

出典: Google

量子コンピュータの構想

量子コンピュータの基礎概念は1981年にRichard Feynmanが提唱した。当時、Feynmanはカリフォルニア工科大学の教授で、講座「Potentialities and Limitations of Computing Machines (コンピュータの可能性と限界)」の中で量子コンピュータの概念を講義した。「自然界は量子力学に従って動いているので、それをシミュレーションするには量子コンピュータしかない」と説明し、量子コンピュータという構想を示した。

量子技術を実現する

量子コンピュータの基礎研究が進む中、最初に量子コンピュータの演算単位「Qubit」を生成することに成功したのはDavid Wineland(当時アメリカ国立標準技術研究所の研究者、下の写真)のグループである。この研究が認められ、量子システムを計測・制御した功績で、2012年にノーベル物理学賞を受賞した。この研究ではTrapped Ion(電荷を帯びた原子(イオン)を容器に閉じ込めこれをレーザー光線で操作)という手法で2つのQubitからなる量子ゲートを生成した。量子コンピュータの演算基礎単位を実現できたのは2006年ごろでまだまだ新しい技術である。

出典: National Institute of Standards and Technology

NISQという種類の量子コンピュータ

今では、GoogleがSycamoreを開発し、53のQubitで量子ゲートを構成し、まとまった計算ができるようになった(下の写真)。これに先立ち、IBMは量子コンピュータを「IBM Q System One」として販売している。これらは「Noisy Intermediate-Scale Quantum (NISQ)」に分類され、Qubitが正常に稼働できる時間(Coherence Time)が短く、エラー(Decoherence)が発生してもそれを補正する機構は無く、不安定なシステムとなる。このため、スパコンを超える性能は出せるが、大規模な構成は取れないという制約を持つ。因みに、NISQというコンセプトはカリフォルニア工科大学教授John Preskillにより提唱された。Preskillは米国で量子技術の基礎研究をリードしており、「Quantum Supremacy」というコンセプトも同氏が提唱した。

出典: Google

量子機械学習アルゴリズム

NISQは量子ゲートのエラー率が高く大規模な演算はできないが、規模の小さい量子アルゴリズムの研究で使われている。実際に、化学、機械学習、物性、暗号化などのアルゴリズム開発が進んでいる。特に、量子機械学習(Quantum Machine Learning)に注目が集まっている。これはAIを量子コンピュータで実行する手法で、大規模なデータを量子状態で処理することで、アルゴリズム教育を高速で実行できると期待されている。具体的には、ニューラルネットワークで多次元のデータを処理するとき、そのデータマトリックスをQubitの量子状態にエンコードすることで学習プロセスが効率化される。一方、AIの実行では大量のデータを量子プロセッサに入力する必要があるが、このプロセスがネックとなる。量子コンピュータは演算速度はけた違いに速いが、データを読み込んだり、データを書き出す処理で時間がかかる。このデータ入出力プロセスを高速で実行することが重要な研究テーマとなっている。

ハイブリッド構成で稼働

NISQは現行コンピュータを置き換えるものではなく、両者が協調してタスクを実行する構成が取られる。これは「Hybrid Quantum-Classical Architectures」と呼ばれ、NISQが現行コンピュータのアクセラレータ(加速器)として機能する。現行コンピュータでアプリを実行する際にその一部をNISQにアウトソースする形を取る。パソコンでビデオゲームをする際に、アプリはCPUで稼働するが、画像処理の部分はGPUで実行される方式に似ている。

ハイブリッド構成で最適化問題を解く

ハイブリッド方式では「Variational Quantum Eigensolver (VQE)」という手法が注目されている。VQEはEigenvalue(固有値)を求める手法で現行コンピュータと量子コンピュータが連動して解を見つける。アルゴリズム全体は現行コンピュータで稼働し、数値演算の部分は量子コンピュータで実行される。具体的には、分子の基底状態(Ground State Energy、エネルギーが一番低い状態)を見つける計算や、ルート最適化(セールスマンが巡回するルートの最適化)などで使われる。

高信頼性量子コンピュータの開発

量子コンピュータ開発で、NISQは通り道で、最終ゴールは高信頼性量子コンピュータとなる。このために、ノイズに耐性のある量子ゲートの研究が続けられている。ノイズとは温度の揺らぎ、機械的な振動、電磁場の発生などがあげられる。これらがQubitの状態を変えエラーの原因となる。現行コンピュータでも記憶素子でエラーが発生するが、特別な機構を導入しエラー検知・修正をする。量子コンピュータでもエラーを補正する機構の研究が進んでいる。また、エラーに耐性の高いアーキテクチャの研究も進んでいる。その代表がMicrosoftの「Topological Qubit」で、Qubitの安定性が極めて高く、高信頼性の量子コンピュータができる。しかし、Topological Qubitはまだ基礎研究の段階で、物理的にQubitは生成できておらず、長期レンジの開発となる。(下のグラフ:Googleの量子コンピュータ開発ロードマップ、NISQではQubitの個数は1000が限界であるが、エラー補正機構を備えた高信頼性マシンではQubitの数は100万を超える。)

出典: Google

生活に役立つ量子アプリケーション

高信頼性量子コンピュータが登場した時点で、大規模な量子アプリケーションを実行することができ、社会に役立つ結果を得ることになる。新薬の開発(分子のシミュレーション)、送電効率の向上(室温超電導物質の発見)、 化学肥料生成(窒素固定(Nitrogen Fixation)触媒の開発)、大気中の二酸化炭素吸収(炭素固定(Carbon Fixation)触媒の開発)などが対象になる。高信頼性量子コンピュータがいつ登場するのか議論が分かれているが、アカデミアからは開発までには10年かかるという意見が聞かれる。一方、産業界からは、開発ペースが加速しており5年と予測する人も少なくない。

大きなブレークスルー

Googleの量子コンピュータ開発責任者John Martinis教授はSycamoreを世界初の人工衛星「Sputnik 1(スプートニク1号)」に例えている。スプートニクは歴史的な成果であるが、人工衛星は電波を発信する機能しかなく、社会生活に役立つものではなかった。しかし、スプートニクが宇宙開発の足掛かりとなり、その後、リモートセンシングやGPSや衛星通信など多彩なアプリケーションが生まれた。同じように、Sycamoreは限られた規模のゲート演算しかできないが、このプラットフォームで若い研究者が量子アルゴリズムを開発し、 大きなブレークスルーを起こすことが次の目標となる 。量子コンピュータ開発が大きな転機を迎えた。

Googleは量子コンピュータがスパコンを超えたと発表、IBMはそれを否定、この発表をどう解釈すべきか

Googleは2019年10月23日、量子コンピュータの性能がスパコンの性能を超えたと発表した。Googleは世界で初めて「Quantum Supremacy(スパコン越え)」に到達したとアピールした。このベンチマークでは量子プロセッサ「Sycamore」が使われ、単純なゲート操作を実行した。徐々にQubitの数と実行回数を増やして実行され、スパコンでは計算できない規模に到達した。この規模の演算はGoogleの量子コンピュータを使うと200秒(3分20秒)でできるが(下の写真左側)、最速スパコン「Summit」を使っても1万年かかると推定した(下の写真右側)。一方、IBMは同じタイミングで論文を発表し、これをスパコンで実行すると2.5日で解けるとし、GoogleはQuantum Supremacyに到達していないと反論した。両社の意見が真っ向から対立し、市場はこの発表をどう受け止めるべきか困惑が広がっている。

出典: Google

量子プロセッサ

Googleは科学雑誌Natureに論文「Quantum supremacy using a programmable superconducting processor」を掲載し、その内容を明らかにした。このベンチマークはGoogleの量子プロセッサ「Sycamore」(下の写真、プロセッサの外観)で実行された。Sycamoreは54Qubit構成のプロセッサで、ベンチマークでは53Qubitが使われ、量子ゲート(Quantum Gate)が構成された。

出典: Google

量子ゲート

量子ゲートは基本演算の論理ゲートとなり、これらを組み合わせて単純な処理を実行し、その結果が計測された。(下のグラフィックス:量子ゲートの事例。左端がSycamoreでXの部分がQubitを示す。Qubitは接続装置(Coupler、A・B・C・Dで示される部分)を経由して隣の4つのQubitに接続される。Qubitは単独で、また、二つのQubitを連結して実行された(中央部分)。処理は左から右に進みその実行結果が計測された(右端)。)

出典: Nature

何を測定したのか

ベンチマークではゲートをランダムに組み合わせ、その結果を測定する方式が取られた。測定結果は0と1のランダムな並び(Bit Stream、例えば「0000101」)となる。しかし、Quantum Interference(量子の干渉)という物理特性から01の並びは完全にランダムではなく特定の並びに偏る。もっとも起こりやすい01の並びを見つけることがこのベンチマークのタスクとなる。

スパコン越えの根拠

ベンチマークでは、最初は12Qubitから53Qubitを使い、単純なゲート演算を実行した(下のグラフ左側)。この際、Gate Depth(演算繰り返し回数)は一定 (14サイクル)にして実行された。また、実行時間(Sampling)は常に200秒に固定された。この確認ができた後、今度は、複雑なゲート演算を53Qubit構成で実行した。その際に、Gate Depthを深くしながら実行し、スパコンが到達できない領域まで、その深度を増していった(下のグラフ右側)。そして53Qubit構成でGate Depthが20の地点でQuantum Supremacyに到達(下のグラフ右側、右端のポイント)。このポイントではこれをスパコンで実行しても1万年かかると算定した。

出典: Nature

量子プロセッサの基本機能の検証

このグラフの縦軸はCross-Entropy Benchmarking Fidelity(ゲートが正常に稼働する指数)を表し、〇、X、+は異なる構成で実測した値で、実線は予想値を示す。Qubit数やGate Depthが増えると(ゲート規模が大きくなると)正常に動作する指数が下がる(エラーが増える)。しかし、実測値は予想したラインに乗り、急速に低下することはなかったことを示している。つまり、Sycamoreで想定外の物理現象はなく、量子プロセッサとして目途が付いたことを意味している。

プロセッサ構成

Sycamoreは54Qubit構成のプロセッサで、Qubitは平面に配置され、隣の4つのQubitと接続する。Qubitはこの結合を通してすべてのQubitと結び付くことができる。SycamoreでQuantum Supremacyに到達できた理由はQubitの信頼性が向上しエラー率の低いゲートを構成できたことにある。Sycamoreプロセッサは超電導回路で構成され、システム全体は円筒状の冷蔵装置(Cryostat)に格納され、絶対零度近辺まで冷却して運用される(下の写真)。

出典: Google  

次のステップはNISQでアプリ開発

Googleは量子コンピュータ開発のロードマップを明らかにした。その一つが、Noisy Intermediate-Scale Quantum (NISQ)といわれるプロセッサでアプリ開発を進めること。NISQとはノイズが高い(エラー率が高い)、中規模構成(50から100Qubit構成)の量子コンピュータを指し、Sycamoreがこの範疇に入る。エラー率が高いので大規模なゲート演算はできないが、限られたサイズのタスクでアルゴリズム開発を進める。

最終ゴールは高信頼性量子コンピュータ

しかし、最終ゴールは「Fault-Tolerant Quantum Computer」の開発で、エラーに耐性のある大規模構成の量子コンピュータを開発する。エラー補正機構などを備えた信頼性の高い量子コンピュータで、大規模な量子アルゴリズムを実行することができる。この時点で社会に役立つアプリケーションの開発が可能となる。例えば、新素材開発に着目しており、軽量バッテリーや肥料を生成するための触媒などの開発が期待される。ただし、この量子コンピュータが登場するまでには歳月を要す。

IBMがGoogleに反論

IBMはGoogleが論文を公表した二日前に、それに反論する論文を掲載した。これは「Leveraging Secondary Storage to Simulate Deep 54-qubit Sycamore Circuits」という表題で、Googleが達成したというQuantum Supremacyに異議を差し挟んでいる。Quantum Supremacyの定義の一つは「スパコン越え」であるとし、世界最速のスパコン「Summit」を使うと、この処理を2.5時間で実行できるというもの。Googleは計測したQubitの状態をRAM(主記憶)に格納して処理することを前提に、処理時間を1万時間と算定した。しかし、IBMはRAMだけでなくディスクも使い、最適化手法を導入することで2.5時間で処理できると算定した。(下のグラフ:GoogleがSycamoreで実行したタスクをSummitで実行したときの処理時間予測。縦軸が実行時間(日)で横軸がCircuit Depth(処理の繰り返し回数)。53Qubit構成(青色のグラフ)で繰り返し回数が20のポイントをみると2.5日となる。仮にフル構成のSycamore(54Qubit)でも、Summitで実行すると6日で計算できる。)ちなみにSummitはIBMが開発したスパコンでIBMはSummitでのタスク最適化技術を誰より熟知している。

出典: IBM

発表前に論文がリーク

IBMがGoogleの発表と同じタイミングで39ページに及ぶ詳細な論文を発表した背景には、Googleの論文が正式発表前にすでにウェブサイトに掲載されていたという背景がある。この論文は2019年8月に、NASA Ames Research Centerがウェブサイトに公開した。すぐにこの公開は停止されたが、この措置は手遅れで、読者がこの論文をRedditなどのサイトに掲載し、だれでも読める状態になっていた。このため、正式発表を待たず、市場ではGoogleのQuantum Supremacyについて評価が行われていた。

大きなマイルストーン

Googleの発表にIBMが水を差す形になり、市場はどう評価すべきか戸惑っている。これから両社の間で議論が深まり、また、これを契機に改めて開発競争が進むことも期待されている。Quantum Supremacyに達したかどうかは疑問が残るものの、Sycamoreが論理設計通りに稼働し、数多くのゲートを使って演算が実行できたことは大きなマイルストーンとなる。基本動作が確認でき、次は大規模な量子プロセッサが登場することが期待される。

ベンチャー企業が量子コンピュータを開発、半導体チップが物理的限界に近づくなか次世代スパコンを目指す

IBMやGoogleと並んでベンチャー企業が量子コンピュータの開発を加速している。量子コンピュータ開発は大学の基礎研究と関係が深く、大学発のベンチャー企業が目立つ。このタイミングで量子コンピュータが製品化されるのは、スパコン性能が限界に近付いていることと関係する。シリコンチップ単体の性能が伸び悩み、スパコンは大量のプロセッサを実装せざるを得ない。スパコンは巨大化の道を辿り大量の電力を消費する。スパコン一台を動かすために原子力発電所が一基必要となる。

出典: Rigetti  

Rigetti Computingというベンチャー企業

この問題を解決するためにRigetti Computingというベンチャー企業が量子コンピュータを開発している。同社はバークレーに拠点を置き独自の量子技術を開発している。Rigettiは量子コンピュータをクラウドで提供し、量子化学や人工知能を中心とするアプリケーションで利用する。Rigettiは量子アルゴリズム開発基盤「Forest」を公開した。Forestはユニークなアーキテクチャで量子コンピュータと既存コンピュータを結び付けたハイブリッドなアルゴリズムを開発できる。

ベンチャーキャピタルが注目

会社創設者はChad Rigettiでエール大学で長年にわたり量子コンピュータの研究に従事した。その後IBMで量子コンピュータ開発に携わり、2013年にRigettiを立ち上げた。インキュベータ大手Y Combinatorなどからシードファンディングを受け事業を始め、2017年3月には大手ベンチャーキャピタルAndreesen Horowitzなどから合計6400万ドルの投資を受け事業化に向けた研究開発を加速している。

Quantum Integrated Circuit

Rigettiはエール大学で単一の原子やイオンに情報をエンコードする研究に従事した。極低温で電気回路の上に人工的に原子を生成する方式を探求している。この方式だと既存の半導体チップ製造施設を利用でき量産化への道のりを短縮できる。Rigettiでは量子技術をIC化する技法「Quantum Integrated Circuit」を開発している。(先頭の写真は同社が開発したQuantum Integrated Circuitでチップに3つのQubit (量子ビット) を搭載している。)

既に量子コンピュータが稼働している

Rigettiの研究所で既に二基の量子コンピュータが稼働している (下の写真)。写真中央部のRigetti BF01とRigetti BF02と示された部分で、白色の円筒が量子コンピュータの筐体となる。この中に上述の量子ICチップが格納され、絶対零度近くまで冷却して稼働する。Rigettiによるとチップに60個から70個の Qubitを搭載すればスパコン性能を上回る。

出典: Rigetti  

量子アルゴリズム開発基盤を公開

Rigettiは同時に量子アルゴリズム開発基盤の開発を進めている。これは「Forest」 (下の写真) と呼ばれ、アルゴリズム開発のプラットフォームとして機能する。開発言語は「Quil」と呼ばれ、これを使って量子アルゴリズムを記述する。また、開発されたアルゴリズムを集約したライブラリ「Grove」や開発ツール「pyQuil」も提供している。Quilで書かれたプログラムは「Compiler」でコンパイルされ量子プロセッサ向けのオブジェクトを生成する。対象マシンはRigettiだけでなく他社が開発している汎用量子コンピュータ全般に適用できる。

出典: Rigetti  

ハイブリッドモデル

Quailは量子アルゴリズムを記述するプログラム言語であるが「Quantum Abstract Machine (QAM)」と呼ばれ量子操作を数学的に記載する構造となる。QAMは量子プロセッサと現行プロセッサが連携して稼働するアーキテクチャを取る。これはハイブリッドモデルと呼ばれ、現行コンピュータのメモリを共有して量子アルゴリズムを実行する (下のダイアグラム)。

出典: Rigetti  

左側が量子コンピュータで演算子 (ゲートなど) を指定してプログラミングする。Qubitの状態を測定すると、この情報は現行コンピュータのメモリ (最下部の数字の列) に格納される。右側は現行コンピュータでプログラムロジックを指定し実行する。量子コンピュータのアルゴリズム開発は分かりにくいが、ここに現行のプログラム技法を融合することで親しみやすくなる。

量子コンピュータのキラーアプリ

Rigettiは量子コンピュータのキラーアプリは量子化学 (Quantum Chemistry) とAIであるとしている。量子化学はスパコンでも研究が進んでいるが、量子コンピュータだと大規模な問題を解くことができる。高精度な触媒を生成し地球上の二酸化炭素を吸収することで温暖化問題の解決に寄与できると期待されている。素材研究では室温超電導素材を見つけ、医療分野では分子構造をベースとした新薬の開発が注目されている。AIや機械学習では学習モデルをマシンに組み込むことで、現行コンピュータでは実現できない大規模なモデルを実行できるとされる。

スパコンの性能が限界

Rigettiは量子コンピュータを開発する必要性をスパコンが性能の限界に近付いているためと説明する。中国のスパコン「Tianhe-2 (天河-2)」 (下の写真) は世界最速のマシンと言われている。プロセッサとしてIntel Xeonを32,000台搭載し、システム全体では312万コアが使われる。消費電力は24MWで都市に供給するレベルの電力を要する。

出典: National Supercomputer Center in Guangzhou

ムーアの法則が終わりに近づく

これはムーアの法則 (Moor’s Law) が終わりに近づいていることを意味する。プロセッサの性能は18か月ごとに倍増できなくなった。その理由は半導体チップ回路の線幅をこれ以上細くできないことを指している。シリコンを使ったプロセッサは物理的な限界に近付いており、次の世代のテクノロジーを必要としている。

コンピュータ開発の歴史

このためRigettiは量子という新しい素材でコンピュータを開発する。Chad Rigettiは量子コンピュータを開発する意義を物理学の観点から説明している。コンピュータの歴史を振り返ると、動作原理はニュートン力学 (Newtonian Mechanics) から量子力学 (Quantum Mechanics) に移っている。多くの企業がニュートン力学を応用したシステムで創業したがその代表はIBM。当時の社名はComputer Tabulating and Recording Companyでパンチカードを使った管理システムを提供していた。パンチカードは社員の出退勤記録などに使われた。カードに穴をあけ、穴の並び方に情報をエンコードするという機械的な方式が使われていた。

半導体技術は古典力学の域を出ない

その後半、William Shockleyが半導体を発明し、IntelなどがそれをIntegrated Circuit (IC) として集積し半導体チップとして出荷されている。コンピュータに革命をもたらした技術であるが、物理学の観点からは古典力学の域を出ず、動作原理はマクスウェルの方程式 (Maxwell’s Equations、電磁場の挙動を定義する方程式で古典電磁気学の集大成) で表される。

ニュートン力学から量子力学への大きなジャンプ

アインシュタインなどにより量子力学の基礎理論が提唱され、100年後のいま量子コンピュータが登場している。量子の動きはシュレーディンガー方程式 (Schrödinger Equation、量子の状態を定義する方程式で量子力学の幕開けとして位置づけられる) で定義される。量子力学は原子や電子などミクロなレベルで挙動を解明する学問で、量子コンピュータはこれを情報操作に応用する。量子コンピュータは演算素子が進化しただけでなく、物理学の観点からはニュートン力学から量子力学への大きなジャンプとなる。

Microsoftも量子コンピュータを開発、量子アルゴリズムの研究で他社を引き離す

Microsoftは早くから量子コンピュータの開発を進めておりその成果を公開した。Microsoftは量子物理学最先端技術を使い、安定して稼働できる量子コンピュータを目指す。Microsoftの強みはソフトウェアで、既に量子コンピュータ向け開発環境やシミュレータを提供している。ハードウェアの登場に先行し、量子アルゴリズムの研究が大きく進展している。

出典: Microsoft  

Station Q:量子コンピュータ研究所

Microsoftの量子コンピュータ開発は10年以上前に始まった。Microsoftは2005年、量子コンピュータ開発のための研究機関「Station Q」 (上の写真、ホームページ) をSanta Barbara (カリフォルニア州) に開設した。Microsoft Research (マイクロソフト研究所) の量子コンピュータ研究部門としてハードウェア機構の開発を担っている。汎用量子コンピュータ (Universal Quantum Computer) を開発し製品化することを最終目標としている。

Topological Quantum Computer

Station Qは著名な数学者Michael Freedmanにより設立された。Freedmanは量子コンピュータ・アーキテクチャーの一つである「Topological Quantum Computer」という方式の研究を進めている。Topological Quantum Computerとは二次元平面で動く特殊な粒子の特性を利用し、その位相変化を情報単位とする方式である。(詳細は後述。) Freedmanはこの方式をMicrosoftのCraig Mundieに提案し、これが切っ掛けで量子コンピュータ開発が始まった。当時Mundieは研究開発部門の責任者で、Freedmanが提唱する量子コンピュータを次世代事業の基軸に位置づけた。

QuArC:量子コンピュータ・ソフトウェア研究所

Microsoftは2011年、量子コンピュータ・ソフトウェアを開発する部門「Quantum Architectures and Computation Group (QuArC)」 をRedmond (ワシントン州) に開設した。QuArCはStation Qのソフトウェア部門として位置づけられ、量子コンピュータのアルゴリズムを研究する。既にプログラミング環境と量子コンピュータ・シミュレータを開発し一般に公開した (下の写真)。ハードウェアの登場に先立ち、実社会に役立つ量子アプリケーションの開発を進めている。

出典: Microsoft  

量子コンピュータの活用方法

Microsoftは量子コンピュータ開発成果を大学を中心とする研究機関に向けて発信している。アカデミアの研究開発に寄与することに加え、優秀な人材を育成・採用することを狙いとしている。QuArCのSenior ResearcherであるKrysta SvoreはCalifornia Institute of Technology (カリフォルニア工科大学) で講演し、量子コンピュータの応用分野について構想を明らかにした。量子コンピュータのアイディアはここカリフォルニア工科大学で生まれた。

量子コンピュータのキラーアプリ

Microsoftを始め多くの企業は量子コンピュータのキラーアプリは自然界のシミュレーションだと考えている。Svoreも同様に物理現象を量子レベル (原子や電子などの状態をミクロに定義する手法) でシミュレーションするには量子コンピュータが最適のプロセッサであると述べている。

スパコンの限界

現在、物理現象をシミュレーションするためにスパコンが使われている。物質素材の研究や素粒子研究でスパコンが使われ、これらが使用時間の半分近くを占める。つまり、スパコンの大半は自然現象のシミュレーションで使われている。しかし、分子を量子レベルでシミュレーションするにはスパコンの性能は十分でなく、小さな分子しか取り扱えないのが現状である。

量子コンピュータで地球温暖化対策

量子コンピュータは複雑な分子構造を電子レベルまで解析することができる。Microsoftが着目しているのはエネルギー分野で量子コンピュータを活用し地球温暖化を防ぐ構想を抱いている。上述のQuArC でFerredoxinという分子のシミュレーションが進んでいる。Ferredoxinとは鉄(Fe)と硫黄(S)で構成されるたんぱく質で、植物の光合成で電子を運搬する役目を担っている (下の写真、Fe2S2 Ferredoxinの分子構造)。

出典: Wikipedia  

分子構造のシミュレーション

Ferredoxinを使って空気中の二酸化炭素を吸収する触媒を生成するアイディアが提唱されている。植物が光合成で二酸化炭素を吸収するようにこの触媒で同じ効果が期待される。この触媒ができれば排出される二酸化炭素量を80%から90%減少させることができる。触媒を生成するには量子レベルでFerredoxinのエネルギー状態を把握する必要がある。ここに量子コンピュータが使われ、Qubit (量子コンピュータの情報単位でBitに対応する) を電子の状態に対応付け分子をシミュレーションする。Ferredoxinのシミュレーションでは100個から200個のQubitが必要となる。

量子アルゴリズムの開発が進む

MicrosoftはFerredoxinを含む分子シミュレーションのための量子アルゴリズムの開発を進めている。2012年にFerredoxinのエネルギーレベルを求める量子アルゴリズムを開発したが、量子コンピュータで実行しても240億年かかる。Microsoftはこのアルゴリズムの改良を続け、2015年時点ではこれを68分で解けるまで改良した。

量子アルゴリズムの進化

下のグラフは分子シミュレーションの量子アルゴリズムの性能を示している。縦軸が計算に必要な時間(推定)で横軸が計算に必要なQubitの数を表す。折れ線グラフは異なる量子アルゴリズムを示し、上から下に向け性能が向上していることを表している。FerredoxinはFe2S2 (グラフ右端) として示されている。数学モデルの改良やソフトウェアの最適化で性能が向上した。LIQ𝑈𝑖と示されている赤色のグラフ (最下部) は量子アルゴリズムを実際にシミュレータで実行した結果を示している。

出典: Microsoft  

量子コンピュータで超電導物質を見つける

量子コンピュータで新素材を見つけることに期待が寄せられている。目標の一つが室温で超電導を起こす物質を見つけること。これはRoom-Temperature Superconductor (室温超電導) と呼ばれ、文字通り室温で超電導となる物質で、これを見つけることが世界のグランドチャレンジとなっている。超電導状態になると電気抵抗がなくなり、電気を送るときのエネルギーロスがゼロとなる。

電力送電に応用

量子コンピュータで室温超電導物質がみつかるとその恩恵は計り知れない。その一つが送電線で発電所から家庭にエネルギーロス無しに電力を送ることができる。通常の電線を使った送電では電力の6%が失われている。超電導状態で送電すれば損失がなくなるが、そのためには送電線を摂氏マイナス200度近くまで冷やす必要があり、これが実用化の障害となっている。室温超電導物質が見つかれば、アリゾナの砂漠に太陽光発電所を建設しそこで発電した電力をニューヨークに送電することが可能となる。

超電導リニアが注目されている

日本で超電導リニアの開発が進み、2027年に品川と名古屋を結ぶ中央新幹線として開通する。このニュースは米国でも話題となり、特にアカデミアが大きな関心を寄せている。超電導リニアは超電導コイルを搭載し、これが磁石となり浮力と推進力を得る。コイルを超電導状態にするために液体ヘリウムで摂氏マイナス269度まで冷却する。室温超電導物質が見つかれば冷却装置は不要となり、車両の構造が大幅にシンプルになる。米国の研究者は量子コンピュータでこの素材を見つけることを狙っている。ここでブレークスルーがあれば超電導リニアが幅広く普及することになる。

素因数分解のアルゴリズムは開発済み

量子コンピュータ向けアルゴリズム開発は研究者の主要テーマで早くから進められている。Bell Laboratoriesの研究員Peter Shorは、量子コンピュータで整数因数分解 (integer factorization) の問題を解くアルゴリズムを開発した。このアルゴリズムは「Shor’s Algorithm」と呼ばれ高速で因数分解ができる。整数を素数の積で表すPrime Factorization (素因数分解) は情報セキュリティと深く関係している。

素因数分解コンテスト

セキュリティ企業RSAは素因数分解コンテスト「Factoring Challenge」を実施している。これは指定された整数を二つの素数「n x m」に因数分解するコンテストで多くの研究者が挑戦している。コンテストの課題として「RSA-2048」が出題されている (下の写真)。青色の文字が一つの数字を表し617桁から構成される。これを二つの素数に因数分解することが求められている。これを現行のコンピュータで計算すると10億年かかるとされる。しかし量子コンピュータだと100秒で計算できると推定される。

出典: RSA  

暗号化アルゴリズムが破られる

RSAが素因数分解コンテストを実施する理由は同社が提供している暗号化アルゴリズム「RSA」の耐性を検証するためである。RSAアルゴリズムはPublic Key Cryptography (公開鍵暗号) の暗号化技術の核心部分を構成する。Secret Key  (秘密鍵) は素因数分解で求めることができるが、RSA-2048でカギの長さを指定しておけば現行のコンピュータで解読することはできない。しかし、量子コンピュータが登場すると100秒で秘密鍵を求めることができ、暗号化技術が破られることになる。RSAは全世界のインターネットで使われており、量子コンピュータに耐性のあるアルゴリズム (Quantum Resistant Algorithm) の開発が求められている。

量子コンピュータがシミュレーションに適している理由

量子コンピュータが自然界のシミュレーションに適している理由を物理学者Richard Feynman (下の写真) が説明している。Feynmanは1965年にQuantum Electrodynamics (量子電磁力学、アインシュタインの相対論と量子力学を融合する理論) でノーベル物理学賞を受賞した。Feynmanはカリフォルニア工科大学で教鞭をとり、物理学の講義ノートは「The Feynman Lectures on Physics」としてウェブに公開されている。(この講義ノートは物理学のバイブル的存在で書籍として出版されている。赤色の表紙が印象的で日本の大学でも物理学の教材として使われている。)

出典: California Institute of Technology

Feynmanが量子コンピュータを提唱

Feynmanはカリフォルニア工科大学での講座「Potentialities and Limitations of Computing Machines (コンピュータの可能性と限界)」で量子コンピュータについて言及している。自然界は量子力学に従って動いているので、それをシミュレーションするには量子コンピュータしかないとしている。「自然界の事象は古典物理学で定義できない。自然をシミュレーションするなら、量子コンピュータを使うべきだ。」と述べている。同時に、量子を制御するのは極めて難しいとも述べている。Feynmanが量子コンピュータというコンセプトの生みの親といわれている。

Microsoftはアルゴリズム開発で先行する

Microsoftは2005年から量子コンピュータの開発を始めた。Topological Quantum Computerという極めて難しい方式を追求しており、ハイリスク・ハイリターンのアプローチと言える。Microsoftは潤沢な資金を背景に長期レンジの研究を支える余裕があるとも解釈できる。Microsoftはコア技術であるソフトウェアの開発に力を入れている。シミュレータを使って量子アルゴリズムの開発を進め、量子コンピュータが登場すればすぐに実行できる準備をしている。つまり、量子コンピュータ開発はハードウェアだけでなく、アルゴリズム開発も簡単ではなく時間と費用がかかる。Microsoftはアルゴリズム開発で先行し、世界に役立つアプリケーションの開発を目標に掲げている。

量子アルゴリズム開発のためのソフトウェア

量子コンピュータ・シミュレータ

QuArC で量子コンピュータ向けソフトウェアの開発が進められている。ここでは量子アルゴリズム開発環境や実行環境の開発が進んでいる。これはLanguage-Integrated Quantum Operations (LIQ𝑈𝑖|⟩、”Liquid”と発音) と呼ばれ、量子コンピュータソフトウェアの開発基盤となる。ここで開発した量子アルゴリズムをシミュレータで実行する。LIQ𝑈𝑖|⟩は上位レベルのプログラム言語で記述された量子アルゴリズムを量子デバイス向け命令に翻訳し、この命令セットをシミュレータで実行する構造となる。

LIQ𝑈𝑖|⟩のアーキテクチャ

下のダイアグラムはLIQ𝑈𝑖|⟩のアーキテクチャを示している。開発言語はF#が中心であるが、C#もサポートされている。スクリプト言語から実行ファイルを起動することもできる。これらの言語で生成されたプログラムはゲート機能 (Qubitの動作を定義する関数) に翻訳される。ゲート機能が量子アルゴリズム実行の最小単位となる。

出典: Microsoft  

Circuit Data Structure

生成したプログラムをCircuit Data (物理回路) に翻訳することもできる。これはプログラムを物理的な回路構成にコンパイルするもので、最適化、エラー修正、ノイズ発生などの操作ができる。更に、Circuit Dataを利用者の環境にエクスポートして実行することもできる。

シミュレーション

LIQ𝑈𝑖|⟩はシミュレータ機能を提供する。三つのモデルがあり、Universalは汎用シミュレータでQubitのゲート演算機能を実行する。ただしQubitの数は30までとなる。Stabilizerは大規模な演算を多数のQubitで実行できる。ただし、使えるゲートの種類に制限がある。Hamiltonianは量子システムの物理現象をシミュレーションするモデルで、エネルギー状態の変異で解を求める。

Topological Quantum Computerとは

エラーに対する耐性が高いアーキテクチャ

Topological Quantum Computerとは新しいパラダイムの量子コンピュータでエラーに対する耐性が高いアーキテクチャとなっている。Topologyとはモノをスムーズに変形した時に変わらない性質を研究する学問で位相幾何学といわれる。スムーズに変形するとは、モノを引き延ばしたり、縮めたり、曲げたりすることを指し、引き裂いたりつなぎ合わせることは含まれない。Topologyは外部からの刺激に対して影響を受けにくい特性を持ち、これを量子コンピュータに応用したのがTopological Quantum Computer。

Quasiparticleの集合体と位相の変化

Topological Quantum ComputerはQuasiparticle (疑似粒子) の集合体を基本単位とし、基本単位間の絡み合いを測定し、これを演算単位Qubitとする。Quasiparticleの集合体は縫物の針のように、他の糸と絡まりながら進行する (下の写真、それぞれの線がQuasiparticle集合体で、線は進行経路を示す)。線の絡まり (線が重なり合っている部分) の回数がデータの基本単位Qubitとなる。粒子同士が相互作用を起こすのではなく、Quasiparticleの集合体が絡み合う点に特徴がある。

出典: Nature

Anyonという素粒子

QuasiparticleとしてElementary Particle (素粒子) の一形態であるAnyonが使われる。素粒子は三次元空間ではBosonとFermionのグループで構成される。二次元空間の素粒子はAnyonと呼ばれる。AnyonはAbelianとNon-Abelianに区分されここでは後者が使われる。

最近存在が確認された物質

Anyonは極めて低い温度における電子の並びで、二次元平面のエッジの分部で発生する。Anyonは電子とそのAntimatter (反物質) を同時に持つ。Anyonのような粒子は1937年にイタリアの物理学者Ettore Majoranaが予言し、「Majorana Fermion」とも呼ばれる。しかしMajorana Fermionは見つからずその存在が疑われてきた。2012年になってオランダDelft University of TechnologyのLeo Kouwenhovenによりその存在が初めて観測された。Microsoftは同大学と密接に量子コンピュータの開発を続けている。(下の写真は同大学のTopological Quantum Computing研究で使われている量子コンピュータ。)

出典: Delft University of Technology

ポジションを入れ替える順序に情報をエンコード

MicrosoftがMajorana Fermionという謎の解明が進んでいない素粒子を使って量子コンピュータを開発する理由はその信頼性にある。Topological Quantum Computerはエラーに対する耐性が高い。その理由は個々のQuasiparticleに情報をエンコードするのではなく、粒子の集合体がポジションを入れ替える順序に情報をエンコードするため。Quasiparticleは外部のノイズで強度や位置が変わるが、情報は位相特性に埋め込まれているためノイズの影響を受けない。

長期レンジの研究開発

粒子に情報を埋め込む方式の量子コンピュータのエラー率は高く10^(-4) といわれている。一方、Topological Quantum Computerのエラー率は低く10^(-30)まで到達できる。商用量子コンピュータはエラー率が10^(-10)であることが必要とされ、Topological Quantum Computerはこの条件を満たすことになる。ただ、Topological Quantum Computerはまだ基礎研究の段階で、長期レンジの研究開発が必要となる。

Googleは量子技術を五年以内に商用化、量子コンピュータでトップの座を狙う

Googleは五年以内に量子コンピュータ技術を商用化することを明らかにした。Googleが開発している量子コンピュータはアナログ方式で、ここに独自に開発したデジタル技術を組み込み、ハイブリッド方式を構成する。量子コンピュータの本命はデジタル方式であるが登場までには時間がかかる。Googleはこのギャップをハイブリッド方式で埋める戦略を取る。

出典: Erik Lucero  

量子コンピュータ技術を五年以内に商用化

Googleは2017年3月、量子コンピュータ技術を五年以内に商用化することを学術雑誌Natureに寄稿した。併せて量子コンピュータプロセッサを稼働させるハードウェア機構などを公開した。(上の写真、プロセッサは10 millikelvinまで冷却される。Millikelvinは絶対零度(摂氏マイナス273.15度)から0.001度の温度。)

デジタル方式開発は難しい

究極の量子コンピュータは「Digital Quantum Computer」と呼ばれ (デジタル方式と記載)、現行コンピュータのようにデジタルで動く。情報処理はデジタルが当たり前と思われるが量子コンピュータの世界は事情が違う。量子コンピュータがデジタルに稼働するには大きな障壁を超える必要がある。量子コンピュータの開発はエラーとの戦いでもある。量子コンピュータの基本単位Qubit (|0〉と|1〉と両者を同時に示すSuperpositionの状態を取る) は極めて不安定で微小なノイズで状態が変わり (これをDecoherenceと呼ぶ) エラーが起こる。デジタル方式の量子コンピュータを実現するにはシステムをノイズから保護しQubitを安定に保つ高度な技術が必要となる。

Googleはハイブリッド方式を目指す

このためデジタル方式の量子コンピュータを実現するまでには10年を要すといわれている。一方、アナログ方式の量子コンピュータは限られたタスクしか実行できないが、エラーに対する耐性は高い。Googleのアプローチはハイブリッド方式でアナログ方式の量子コンピュータ (Adiabatic Quantum Computer、後述) をデジタルな技術で補完する。Googleはこの技術を五年以内に製品化する。

ハイブリッド方式向けアプリ開発

Googleはハイブリッド方式というユニークな量子コンピュータで何を実現できるのか応用技術についても述べている。開発されたアプリケーションはそのまま事業で活用できる訳ではない。目的は「Heuristic Quantum Algorithms」の開発にある。Heuristicとは新規技法で近似解を開発する手法を指し、限られた機能を持つハイブリッド方式で量子アルゴリズムの開発を進める。本格的な量子コンピュータが登場するとこれら開発されたアルゴリズムが威力を発揮する。(Googleの量子コンピュータ研究はQuantum AI部門で進められる、下の写真。)

出典: Google  

Simulation

アプリケーションでGoogleが注目している分野はSimulation、Optimization、及びSamplingである。Simulationとは量子コンピュータで化学反応や物質素材をモデル化してシミュレーションすることを指す。量子レベルまでのモデリングは現行コンピュータでは不可能で、ここが量子コンピュータが活躍できる分野とされる。量子コンピュータでモデル化することで様々な素材をマシンで精密に仮想実験することができる。飛行機向け化学繊維を強固にしたり、自動車向けには排ガス除去装置(触媒コンバータ)の効率を上げる。また、太陽発電セルの変換効率を上げることなどが期待される。

Optimization

Optimizationとは最適化の問題を量子コンピュータで解くことを指す。適用分野は広く消費者への商品推奨やオンライン広告の応札モデルなどで使われる。また、流通産業では物資の配送ルートの最適化で使われる。アナログ方式の量子コンピュータはOptimization Machineとも呼ばれこの分野がスイートスポットとなる。

Sampling

Samplingとは統計や機械学習で使われる手法で確率分散からデータを取り出す技法となる。Googleは実際に49 Qubit構成の量子コンピュータを使ってSamplingの研究を進めている。Googleは論文で量子コンピュータが現行スパコンでは実行できない問題を解決できたと報告している。これを「Quantum Supremacy」と呼び、量子コンピュータが現行スパコンの機能を本質的に上回ることを指す。

量子コンピュータをクラウドで提供

Googleは量子コンピュータをクラウドで提供する計画を明らかにした。これにより業界を跨って多くの企業が量子コンピュータを使うことができる。量子コンピュータ向けのアルゴリズムやアプリケーションの開発が進むことを目的とする。Googleはハイブリッド方式量子コンピュータに興味を持ってくれる研究者を増やし開発コミュニティの形成を目指している。(量子コンピュータはGoogle Cloud Platform (下の写真) で提供されるのか。)

出典: Google  

ベンチャーキャピタルへの呼びかけ

Googleはベンチャーキャピタルにも働きかけている。ベンチャーキャピタルはデジタル方式の量子コンピュータ技術を中心に投資を進めている。これに対しGoogleはハイブリッド方式への投資の意義を説いている。究極の量子コンピュータはデジタル方式であるが、Googleの技術はそのギャップを埋めるもので、投資対象としても魅力があるとアピールする。Googleの戦略はTeslaのように最初からEVを投入するのではなく、Toyotaのようにハイブリッド方式で新たな市場を形成することを目指している。

Quantum AI Laboratoryを設立

Googleは2009年からカナダのベンチャー企業D-Waveが開発した量子コンピュータを使って研究を進めてきた。2013年、GoogleはNASAと共同で量子コンピュータ研究所「Quantum Artificial Intelligence Lab (QuAIL)」を設立した (下の写真)。量子コンピュータで機械学習や最適化技法を開発することを目的とし、研究所はシリコンバレーのNASA Ames Research Centerに設立された。

出典: NASA  

量子アルゴリズムで宇宙開発

QuAILは2013年5月、量子コンピュータ「D-Wave Two」を導入した。D-WaveのマシンはQuantum Annealing (後述) というアナログ方式の量子コンピュータでOptimizationの研究を中心にプロジェクトが進められた。NASAは量子アルゴリズムを使い宇宙開発におけるOptimizationを現行スパコンより高速に実行することを目的とした。更に、QuAILは2017年3月、最新モデルである「D-Wave 2000Q」を導入することを発表した。

独自の量子コンピュータ開発に着手

GoogleはD-Waveを使って量子コンピュータの研究を進めると同時に、独自の量子コンピュータ技術の開発に乗り出した。2014年9月、UC Santa Barbara (カリフォルニア大学サンタバーバラ校) 教授John MartinisをGoogleに招へいし、量子コンピュータハードウェア研究部門を設立した。Martinis教授は物理学部で量子コンピュータチップを開発しており、それをD-Waveに実装してシステムを構築する。

D-Wave評価は芳しくなかった

その当時、D-Waveが開発した量子コンピュータに関しアカデミアを中心に疑問の声が高まっていた。そもそもD-Waveは本当に量子コンピュータであるのかという本質的な議論が交わされた。D-Wave Twoをベンチマークするとマシンは確かに量子効果を生成しているが、これが性能アップに寄与しているかについて疑問が持たれていた。GoogleはD-Wave Twoを綿密に検証することで問題点や特性を把握し、これが今の量子コンピュータ開発に生かされている。またGoogleはD-Waveを再評価し高いベンチマーク結果などを公表している。

Martinis教授のD-Wave評価

Martinis教授も疑問を抱いていた研究者の一人でD-Wave Twoの評価を実施しレポートを公開した。報告書はD-Wave Twoはラップトップの性能を上回るものではないと結論づけ厳しい評価になっている。その後Martinis教授はGoogleに加わり量子コンピュータ技術の研究を進めることとなった。自身が開発している量子チップをD-Waveに実装しハイブリッド方式で性能改善を目指している。

5つのQubitで構成されるプロセッサ

Martinis教授は量子コンピュータが安定して稼働できる技術をテーマに研究を進めている。Googleに加わる前、Martinisのチームは2014年4月、5つのQubitで構成されるプロセッサを開発しNatureに論文として発表した。これは「Josephson Quantum Processor」と呼ばれる量子コンピュータチップで、サファイア基盤にアルミニウム回路を蒸着した形状となっている。(下の写真、四角い部分がチップで回路の+状の部分がQubit。これは「Xmon Transmon Qubit」と呼ばれる。)

出典: Martinis Group @ University of California, Santa Barbara

エラー補正機能を持つQubit

2015年5月には、Martinis教授を中心とする研究部門は9つのQubitで構成される量子チップを発表した (下の写真、中央部の+状の分部がQubit)。これは超電導量子回路で構成されエラーを補正する機能を持つ。Natureに掲載された論文「State preservation by repetitive error detection in a superconducting quantum circuit」で明らかにした。Qubit開発ではエラーの検知とエラーの補正が極めて難しい。Qubitは不安定で環境変化やノイズでQubitの状態が変わりエラーが発生する。この問題に対処するためQuantum Error Correction (QEC) という機能がプロセッサに実装されエラーを検出しエラー発生を抑えることができるようになった (後述)。

出典: Martinis Group @ University of California, Santa Barbara

アナログ方式をデジタル方式で補完

2016年6月、Googleハードウェア研究部門は「Digitized adiabatic quantum computing with a superconducting circuit」という論文を公開し、アナログ方式の量子コンピュータにデジタル技術を統合しアナログ方式の弱点を補完する方式を発表した。アナログ方式とはAdiabatic Quantum Computing (後述) を指し、デジタル方式とは個々のQubitを操作する技術 (後述) を指す。これによりハイブリッド方式の量子コンピュータを構成し個々のQubitを操作できる。

インテルのビジネスモデルを踏襲

GoogleはD-Waveを使って量子コンピュータの研究を始め基礎技術を学んできた。その後GoogleはMartinis教授を中心に独自の量子チップを開発しD-Waveシステムに搭載して稼働させている。Adiabatic Quantum Computingというアナログ手法を使うものの、デジタル制御できる量子チップを開発し量子コンピュータのハイブリッド方式を提唱している。Googleは独自の手法で量子チップの開発を進めインテルのビジネスモデルを踏襲しているようにも思える。

Googleのチャレンジ

ハイブリッド方式の量子コンピュータは初めての試みで実用に耐えるシステムができるかが問われている。Googleは自社だけでこれを進めるのではなく新興企業の活躍を期待している。Googleは多くの新興企業がハイブリッド方式に興味を示し、ここからイノベーションが生まれることを期待している。研究者の多くはアナログ方式に対して懐疑的であるが、Googleはこれを改良することで道は開けるとしている。壮大な挑戦で果たしてブレークスルーはあるのか関心が集まっている。

IBMがデジタル方式量子コンピュータを発表

Googleが量子コンピュータ技術商用化を発表した直後、IBMはデジタル方式の量子コンピュータ「Q」を数年以内に出荷すると発表した。IBMはこれを汎用量子コンピュータ (Universal Quantum Computer) と位置づけ、マシンをデジタル制御し汎用的にタスクを実行する。当初、このモデルの出荷は10年先と見られていたがIBMはスケジュールを大幅に前倒しした。

Googleが一気にトップの座を狙う

IBMが大きく先行している量子コンピュータ技術であるが、Googleがこれに挑戦する構図となっている。Googleにとって量子コンピュータ開発はゼロからの出発でハンディキャップは余りにも大きい。AIや自動運転車開発でGoogleはゼロから出発したが買収や型破りな技術力で今では世界のトップを走っている。Googleは量子コンピュータ開発でも同じ手法を使い一気にトップの座を狙うものとみられる。量子コンピュータ開発レースが白熱した展開になり技術進化が爆発的に進む勢いとなってきた。

参考情報:Qubitのエラー補正は難しい

Quantum Error Correction (QEC) という機能がプロセッサに実装されエラーを検出しエラー発生を抑えることができるようになった。QECで「Measurement Qubit」 (測定専用Qubit、下の写真で緑色の+状の分部) を導入し「Data Qubit」 (演算用Qubit、下の写真で青色の+状の分部) の状態を把握しエラーを検出する。

出典: Google

Qubitでエラーの検出が難しい理由はQubitを直接観察して状態を把握することができないため。Qubitを計測するとEntanglementとSuperpositionの状態が消失し、|0〉または|1〉のバイナリーな状態に戻ってしまう。このためMartinis教授はMeasurement Qubitという測定専用のQubitを導入した。Measurement QubitとData QubitをEntanglementの状態にして観測する。そうするとMeasurement Qubitの状態を見ればData Qubitを読み出さなくてもその状態が分かる。

参考情報:Adiabatic Quantum Computingとは

Adiabatic Quantum Computingとはアナログ方式の量子コンピュータでエネルギーレベルを変えながら最小値を見つける手法を指す。プログラミングの観点からは初期化されたQubit (Superpositionの状態) のグループに条件を指定し (Qubitのスピン方向と結合状態で定義する)エネルギーレベルを上下する操作を行う。そうするとQubitは初期状態(Superposition)から最終状態 (|0〉または|1〉のバイナリー) に移り、エネルギーの低い状態で安定する。この時のQubitの組み合わせが答えとなる (下の写真、求める解はエネルギー状態 (Hamiltonian) として定義する)。

出典: D-Wave

ただし、通常のコンピュータのように答えは一つ (Deterministic Model) ではなく、多くの答えを示す (Probabilistic Model)。エネルギーレベルを変えて解を見つける方式をAnnealingと呼ぶ。その中でエネルギーレベルの変異を緩やかに行う手法をAdiabaticと呼ぶ。Adiabatic Quantum Computingとはこの手法で解を見つける量子コンピュータを指す。

参考情報:Qubitをデジタル制御する仕組み

Adiabatic Quantum Computingでタスクを解くためにはQubit間での連結が必要となる。しかし、Googleハードウェア研究部門が開発している量子チップは隣り合うQubitと連携ができるだけ。この制約を補完するためにMartinis教授らはQubitをデジタルに制御してQubit間で連携できる範囲を広げた (下の写真、球体がQubitで矢印はスピンの方向と強さを示す)。個々のQubitを磁場で制御して隣り合ったQubitの方向を合わせ (ferromagnetic link、下の写真の赤色+)、また、方向を反対にする(antiferromagnetic link、下の写真の水色+)操作をする。この方式で物理的にQubitの方向やQubit間の繋がり強度を操作できる。この量子チップをD-Waveのマシンに搭載しアナログ方式の弱点を補完するハイブリッド方式を開発する。

出典: Google