カテゴリー別アーカイブ: Microsoft

マイクロソフトは量子クラウド「Azure Quantum」を発表、量子コンピュータ登場前に量子アプリの開発が進む

Microsoftは2019年11月、開発者会議「Ignite」で量子クラウド「Azure Quantum」を発表した(下の写真)。Azure Quantumは量子技術を統合したクラウドで、量子アプリケーションの開発環境とそれを実行する量子コンピュータから構成される。CEOのSatya Nadellaは、量子コンピュータで未解決の問題を解決し、食の安全、気候変動、エネルギー伝送の分野でブレークスルーを起こすと表明した。

出典: Microsoft

Azure Quantumとは

Azure Quantumは量子コンピュータから開発環境からソリューションまでを提供する量子技術のフルスタックとして位置付けられる。Microsoftは既に、量子開発環境「Quantum Development Kit」や量子プログラム言語「Q#」などを発表しているが、これらがAzure Quantumの中に組み込まれた。エンジニアはAzure Quantumで量子アルゴリズムを開発し、それらを量子コンピュータや量子シミュレータで実行することができる。商用量子コンピュータが登場するまでには時間がかかるが、Azure Quantumで先行して量子アプリケーションを開発し、来るべき時代に備えておく。

量子コンピュータの種類

Azure Quantumは実行環境として開発中の量子コンピュータを利用する。対象となるマシンは、Microsoft、IonQ、Honeywell、Quantum Circuitsで、この中でプロトタイプが稼働しているのはIonQだけとなる。他の量子コンピュータは開発中で、マシンが稼働すると順次、Azure Quantumで使われる。

量子コンピュータの概要

Microsoftは「Topological Quantum Computer」という方式の量子コンピュータを開発している(下の写真)。二次元平面で動く特殊な粒子の特性を利用し、その位相変化を情報単位とする方式で、極めて信頼性が高いが、開発には時間を要す。IonQとHoneywellは「Trapped Ions」という手法の量子コンピュータを開発している。電荷を帯びた原子(イオン)の電子のエネルギー状態でQubitを構成する。Quantum Circuitsは超電導回路を使ってQubitを生成するが、量子コンピュータを多数のモジュールで構成する。GoogleやIBMは複数の超電導回路を一つのチップに搭載するが、Quantum Circuitsはこれを多数のモジュールに分けて搭載する。量子プロセッサを多重化することで信頼性を高めるアプローチを取る。

出典: Microsoft

量子アプリケーション開発環境

Microsoftは量子アプリケーション開発環境「Quantum Development Kit」と量子プログラム言語「Q#」を2017年12月に投入している。しかし、2019年7月には、これら開発環境をオープンソースとしてGitHubに公開した。Microsoftはオープンソースの手法で、開発者コミュニティと連携して、量子アプリケーションを開発する方針とした。今回の発表でこれら開発環境をAzure Quantumに組み込み、エコシステムの拡大を目指している。

量子プログラム事例

GitHubには量子アルゴリズムのサンプルが掲載されており、これらを利用して新しい量子アプリケーションを開発することができる。GitHubには代表的なアルゴリズムとして、検索(Grover’s Algorithm)、素因数分解(Shor’s Algorithm)、量子化学、シミュレーションなどが掲載されている。また、量子アルゴリズムを学習するためのサンプルも豊富に揃っており、ここでスキルを身につけ、量子アルゴリズム開発を始める。

量子テレポーテーション

GitHubにサンプルコードとして「量子テレポーテーション(Quantum Teleportation)」が掲載されている。量子テレポーテーションとは、ある場所から別の場所に情報(Qubitの状態)を送信する技術であるが、物質(電子や光子など)を送ることなく、情報を伝える技術である。SF映画に登場するテレポーテーションのように、情報を遠く離れた場所に移動させる技術である。電気シグナルで情報を伝達しないので経路上で盗聴されることはない。極めて奇妙な物理現象であるが、Quantum Teleportationを量子ゲートで示すと下の写真上段の通りとなる。左上のQubitの情報を右下のQubitに送るのであるが、簡単なゲート操作を経て、右下のQubitの状態を読み出すだけで情報が伝わる。この量子ゲートをQ#でコーディングすると下の写真下段のようになる。

出典: GitHub

量子テレポーテーションを実行すると

サンプルコードはJupyter Notebook(オープンソース開発・シミュレーション環境)の上に展開されており、コードをそのまま実行できる。ここでは「TeleportRandomMessage」という命令(Operation)を定義し、Qubitの状態をテレポートするコードを作成し、それをMicrosoftの量子シミュレータで実行させた。その結果、送信側のQubitの状態「|->」が、受信側のQubitにテレポートし、正しく「|->」と出力された(下の写真)。(「|->」とはBlock Sphere(先頭の写真左側の球体)でQubitが-Y軸方向に向いている状態。)

出典: GitHub

量子アプリケーション事例

既に、先進企業はMicrosoftの量子アプリケーション開発環境を使って事業を進めている。OTI Lumionicsはカナダ・トロントに拠点を置く企業で、量子技術を使って新素材を開発している。この手法は「Computational Materials Discovery」といわれ、量子化学と機械学習の手法で有機EL(OLED)を開発している。OTI Lumionicsは量子アルゴリズムを開発し、新素材のシミュレーションを実行し、その物理特性を予測する(下の写真)。

出典: OTI Lumionics

開発者コミュニティ拡大

量子コンピュータの商用機が登場する前に、既に量子アルゴリズム開発が始まっている。開発した量子アルゴリズムはシミュレータで実行する。しかし、量子シミュレーションでは大量のメモリが必要となり、Qubitの数が増えるとパソコンやサーバでは実行できなくなる。このため、大規模構成のQubitのシミュレーションはAzureに展開して量子アプリケーションを実行する。Microsoftとしては量子アルゴリズム開発環境を提供することで、多くのエンジニアがQ#などに慣れ親しみ、開発者コミュニティを拡大する狙いもある。量子コンピュータが登場する前に、既に、量子エンジニアの囲い込みが始まった。

シュレーディンガーの猫

Azure Quantumのシンボルは「シュレーディンガーの猫(Schrödinger’s Cat)」である(先頭の写真右端)。この猫はオーストリアの物理学者シュレーディンガーが量子力学を説明する思考実験として使われた。量子力学ではQubitの状態(Block Sphereの青丸の位置)を特定することはできず、0である確率は50%で、1である確率は50%となる。Qubitを計測することで初めて0か1かに決まる。これを猫に例えると、箱に入った猫は蓋を開けるまで、その生死は分からない。つまり、箱の中で、猫は50%の確率で生きており50%の確率で死んでいる、ということになる。

MicrosoftはDNAで記憶素子を生成、遺伝子にデータを保存する仕組みとは

Microsoft Researchは記憶素子としてDNAを使う研究を進めている。DNAで記憶装置を作りここにデータベースやビデオ映像を記録する。DNAを記憶装置に利用する理由はデータを高密度に格納できるため。MicrosoftはDNA記憶装置をデータセンターに設置する計画も明らかにした。

出典: Microsoft  

DNA素子にデータを格納することに成功

Microsoft ResearchはDNAを単位とする記憶素子にデータを格納しそれを読みだすことに成功したと発表した。DNAにビデオ映像などを格納し、それをエラー無く読み出しビデオを再生することができた。データ容量は200MBでビデオ映像の他にデータベースなどが含まれている。この実験は昨年実施されたが、今年に入り研究詳細が論文「Scaling up DNA data storage and random access retrieval」として発表された。

DNAが注目される理由

記憶素子としてDNAが注目されているのはその記憶密度にある。DNAに高密度でデータを格納でき、インターネット上のすべての情報を広辞苑一冊程度の大きさに収納できるとされる。Microsoftは研究成果を元にDNA記憶装置を開発し、数年後にはデータセンターに設置して運用する計画だ。これはプロトタイプとして位置づけられ、Microsoftが自ら次世代ストレージ開発に乗り出すことになる。

現在の記憶媒体が物理限界に近づいている

記憶素子としてDNAが注目されるもう一つの理由は現在の記憶媒体が物理限界に近づいていることがある。長期保存の記憶媒体には光学ディスクやハードディスクなどが使われる。またフラッシュメモリ(SSD)なども使われる。しかし記憶密度は1平方ミリメートルあたり10GB (10^10 B) で物理的な限界に近付きつつある (ハードディスクの場合)。これに対しMicrosoftが開発したDNAは記憶密度が1平方ミリメートルあたり10の18乗バイト (10^18 B) で1億倍高い。記憶密度が格段に高くなり次世代の記憶素子として注目を集めている。

長期の保存が可能になる

また、DNAを記憶素子として使うことで長期の保存が可能になる。DNAはシリコンと異なり柔らかく崩れやすいイメージがあるが、DNAを低温・低湿度で保存すると経年劣化が極めて小さい。事実、マンモスの化石からDNAを取り出し遺伝子配列を読み出すことができるように、数十万年前の情報が正確に保持される。(下の写真、マンモスのDNAからマンモスを再生するプロジェクトが進んでいる。) また、フロッピーディスクやカセットテープは読み出し装置の製造が中止さると使えなくなる。しかし、DNAの読み出し装置 (DNA Sequencer) は人間が存在する限り必要で長期レンジで利用できる。

出典: Wikipedia / Royal BC Museum  

DNAメモリー素子の仕組み

DNAを記憶媒体にするロジックはシンプルである。しかし、それを実際に実行するには高度な技術を必要とする。DNAをメモリーとして使うには情報2ビットをDNAを構成する塩基 (A, G, T, C) にエンコードする:

          00 ➡ A

          01 ➡ G

          10 ➡ T

          11 ➡ C

つまりA (adenine) は00を意味し、G (guanine)は01を意味し、AGは0001となる。ビデオ映像などのデータは0と1で構成されるが、これをAとGとTとCの組み合わせに置き換える。現在の記憶装置は2ビットで稼働するがDNA素子は4ビットで構成されるメモリ素子となる。

ランダムアクセス・メモリ

DNA記憶素子は論理的にはランダムアクセス・メモリ (Random Access Memory) として機能する。パソコンで使われるSRAMやDRAMに相当する。記憶する情報の基本単位(レコード)を定義し、ここにIDやアドレスやペイロードを設定する。情報を書き込むときこの構成のDNAを生成する。このプロセスはDNA Synthesisと呼ばれ、DNAの塩基を特定の配列に組み上げる。今では多くのベンチャー企業が登場しDNA Synthesis技術が高度に進化している。

データ読み出し方法

生成されたDNAは容器 (DNA Pool、下の写真) に入れて保存される。DNAを読み出す際にはDNA読み出し装置 ( DNA Sequencer) を使う。遺伝子解析の時と同じ要領で、容器の中のDNA配列を読み出す。これはSRAMに記録されたデータを読み出す方式に似ており、データにランダムにアクセスし、IDやアドレスをキーに論理ファイルを組み上げていく。

出典: Lee Organick et al.  

DNA生成速度とコストが課題

遺伝子解析の進化でDNA読み出し技術は急成長し、Illumina社などから製品が提供されている。かつては人の全遺伝子解析ではコストが27億ドルとされたが、今ではこれが1000ドル程度でできる。一方、課題はDNA生成のプロセスで、如何に高速でDNAを生成できるかがカギになる。DNAという生物体を生成するため時間がかかりコストも大きい。現在、DNA生成速度は毎秒400 バイトで200MB生成するためには80万ドルかかると推定される。商用化にはDNA生成の速度を上げ価格を下げるためのブレークスルーが必要となる。

合成生物学の進化

DNAを編集して記憶素子を生成するだけでなく、編集したDNAを微生物に組み込んで新しいマテリアルを生成する技術が急速に進化している。これはSynthetic Biology (合成生物学) と呼ばれ、新薬の開発や新素材の合成に応用されている。従来のBiologyと最新のITが融合し新しい産業が生まれている。

Microsoftも量子コンピュータを開発、量子アルゴリズムの研究で他社を引き離す

Microsoftは早くから量子コンピュータの開発を進めておりその成果を公開した。Microsoftは量子物理学最先端技術を使い、安定して稼働できる量子コンピュータを目指す。Microsoftの強みはソフトウェアで、既に量子コンピュータ向け開発環境やシミュレータを提供している。ハードウェアの登場に先行し、量子アルゴリズムの研究が大きく進展している。

出典: Microsoft  

Station Q:量子コンピュータ研究所

Microsoftの量子コンピュータ開発は10年以上前に始まった。Microsoftは2005年、量子コンピュータ開発のための研究機関「Station Q」 (上の写真、ホームページ) をSanta Barbara (カリフォルニア州) に開設した。Microsoft Research (マイクロソフト研究所) の量子コンピュータ研究部門としてハードウェア機構の開発を担っている。汎用量子コンピュータ (Universal Quantum Computer) を開発し製品化することを最終目標としている。

Topological Quantum Computer

Station Qは著名な数学者Michael Freedmanにより設立された。Freedmanは量子コンピュータ・アーキテクチャーの一つである「Topological Quantum Computer」という方式の研究を進めている。Topological Quantum Computerとは二次元平面で動く特殊な粒子の特性を利用し、その位相変化を情報単位とする方式である。(詳細は後述。) Freedmanはこの方式をMicrosoftのCraig Mundieに提案し、これが切っ掛けで量子コンピュータ開発が始まった。当時Mundieは研究開発部門の責任者で、Freedmanが提唱する量子コンピュータを次世代事業の基軸に位置づけた。

QuArC:量子コンピュータ・ソフトウェア研究所

Microsoftは2011年、量子コンピュータ・ソフトウェアを開発する部門「Quantum Architectures and Computation Group (QuArC)」 をRedmond (ワシントン州) に開設した。QuArCはStation Qのソフトウェア部門として位置づけられ、量子コンピュータのアルゴリズムを研究する。既にプログラミング環境と量子コンピュータ・シミュレータを開発し一般に公開した (下の写真)。ハードウェアの登場に先立ち、実社会に役立つ量子アプリケーションの開発を進めている。

出典: Microsoft  

量子コンピュータの活用方法

Microsoftは量子コンピュータ開発成果を大学を中心とする研究機関に向けて発信している。アカデミアの研究開発に寄与することに加え、優秀な人材を育成・採用することを狙いとしている。QuArCのSenior ResearcherであるKrysta SvoreはCalifornia Institute of Technology (カリフォルニア工科大学) で講演し、量子コンピュータの応用分野について構想を明らかにした。量子コンピュータのアイディアはここカリフォルニア工科大学で生まれた。

量子コンピュータのキラーアプリ

Microsoftを始め多くの企業は量子コンピュータのキラーアプリは自然界のシミュレーションだと考えている。Svoreも同様に物理現象を量子レベル (原子や電子などの状態をミクロに定義する手法) でシミュレーションするには量子コンピュータが最適のプロセッサであると述べている。

スパコンの限界

現在、物理現象をシミュレーションするためにスパコンが使われている。物質素材の研究や素粒子研究でスパコンが使われ、これらが使用時間の半分近くを占める。つまり、スパコンの大半は自然現象のシミュレーションで使われている。しかし、分子を量子レベルでシミュレーションするにはスパコンの性能は十分でなく、小さな分子しか取り扱えないのが現状である。

量子コンピュータで地球温暖化対策

量子コンピュータは複雑な分子構造を電子レベルまで解析することができる。Microsoftが着目しているのはエネルギー分野で量子コンピュータを活用し地球温暖化を防ぐ構想を抱いている。上述のQuArC でFerredoxinという分子のシミュレーションが進んでいる。Ferredoxinとは鉄(Fe)と硫黄(S)で構成されるたんぱく質で、植物の光合成で電子を運搬する役目を担っている (下の写真、Fe2S2 Ferredoxinの分子構造)。

出典: Wikipedia  

分子構造のシミュレーション

Ferredoxinを使って空気中の二酸化炭素を吸収する触媒を生成するアイディアが提唱されている。植物が光合成で二酸化炭素を吸収するようにこの触媒で同じ効果が期待される。この触媒ができれば排出される二酸化炭素量を80%から90%減少させることができる。触媒を生成するには量子レベルでFerredoxinのエネルギー状態を把握する必要がある。ここに量子コンピュータが使われ、Qubit (量子コンピュータの情報単位でBitに対応する) を電子の状態に対応付け分子をシミュレーションする。Ferredoxinのシミュレーションでは100個から200個のQubitが必要となる。

量子アルゴリズムの開発が進む

MicrosoftはFerredoxinを含む分子シミュレーションのための量子アルゴリズムの開発を進めている。2012年にFerredoxinのエネルギーレベルを求める量子アルゴリズムを開発したが、量子コンピュータで実行しても240億年かかる。Microsoftはこのアルゴリズムの改良を続け、2015年時点ではこれを68分で解けるまで改良した。

量子アルゴリズムの進化

下のグラフは分子シミュレーションの量子アルゴリズムの性能を示している。縦軸が計算に必要な時間(推定)で横軸が計算に必要なQubitの数を表す。折れ線グラフは異なる量子アルゴリズムを示し、上から下に向け性能が向上していることを表している。FerredoxinはFe2S2 (グラフ右端) として示されている。数学モデルの改良やソフトウェアの最適化で性能が向上した。LIQ𝑈𝑖と示されている赤色のグラフ (最下部) は量子アルゴリズムを実際にシミュレータで実行した結果を示している。

出典: Microsoft  

量子コンピュータで超電導物質を見つける

量子コンピュータで新素材を見つけることに期待が寄せられている。目標の一つが室温で超電導を起こす物質を見つけること。これはRoom-Temperature Superconductor (室温超電導) と呼ばれ、文字通り室温で超電導となる物質で、これを見つけることが世界のグランドチャレンジとなっている。超電導状態になると電気抵抗がなくなり、電気を送るときのエネルギーロスがゼロとなる。

電力送電に応用

量子コンピュータで室温超電導物質がみつかるとその恩恵は計り知れない。その一つが送電線で発電所から家庭にエネルギーロス無しに電力を送ることができる。通常の電線を使った送電では電力の6%が失われている。超電導状態で送電すれば損失がなくなるが、そのためには送電線を摂氏マイナス200度近くまで冷やす必要があり、これが実用化の障害となっている。室温超電導物質が見つかれば、アリゾナの砂漠に太陽光発電所を建設しそこで発電した電力をニューヨークに送電することが可能となる。

超電導リニアが注目されている

日本で超電導リニアの開発が進み、2027年に品川と名古屋を結ぶ中央新幹線として開通する。このニュースは米国でも話題となり、特にアカデミアが大きな関心を寄せている。超電導リニアは超電導コイルを搭載し、これが磁石となり浮力と推進力を得る。コイルを超電導状態にするために液体ヘリウムで摂氏マイナス269度まで冷却する。室温超電導物質が見つかれば冷却装置は不要となり、車両の構造が大幅にシンプルになる。米国の研究者は量子コンピュータでこの素材を見つけることを狙っている。ここでブレークスルーがあれば超電導リニアが幅広く普及することになる。

素因数分解のアルゴリズムは開発済み

量子コンピュータ向けアルゴリズム開発は研究者の主要テーマで早くから進められている。Bell Laboratoriesの研究員Peter Shorは、量子コンピュータで整数因数分解 (integer factorization) の問題を解くアルゴリズムを開発した。このアルゴリズムは「Shor’s Algorithm」と呼ばれ高速で因数分解ができる。整数を素数の積で表すPrime Factorization (素因数分解) は情報セキュリティと深く関係している。

素因数分解コンテスト

セキュリティ企業RSAは素因数分解コンテスト「Factoring Challenge」を実施している。これは指定された整数を二つの素数「n x m」に因数分解するコンテストで多くの研究者が挑戦している。コンテストの課題として「RSA-2048」が出題されている (下の写真)。青色の文字が一つの数字を表し617桁から構成される。これを二つの素数に因数分解することが求められている。これを現行のコンピュータで計算すると10億年かかるとされる。しかし量子コンピュータだと100秒で計算できると推定される。

出典: RSA  

暗号化アルゴリズムが破られる

RSAが素因数分解コンテストを実施する理由は同社が提供している暗号化アルゴリズム「RSA」の耐性を検証するためである。RSAアルゴリズムはPublic Key Cryptography (公開鍵暗号) の暗号化技術の核心部分を構成する。Secret Key  (秘密鍵) は素因数分解で求めることができるが、RSA-2048でカギの長さを指定しておけば現行のコンピュータで解読することはできない。しかし、量子コンピュータが登場すると100秒で秘密鍵を求めることができ、暗号化技術が破られることになる。RSAは全世界のインターネットで使われており、量子コンピュータに耐性のあるアルゴリズム (Quantum Resistant Algorithm) の開発が求められている。

量子コンピュータがシミュレーションに適している理由

量子コンピュータが自然界のシミュレーションに適している理由を物理学者Richard Feynman (下の写真) が説明している。Feynmanは1965年にQuantum Electrodynamics (量子電磁力学、アインシュタインの相対論と量子力学を融合する理論) でノーベル物理学賞を受賞した。Feynmanはカリフォルニア工科大学で教鞭をとり、物理学の講義ノートは「The Feynman Lectures on Physics」としてウェブに公開されている。(この講義ノートは物理学のバイブル的存在で書籍として出版されている。赤色の表紙が印象的で日本の大学でも物理学の教材として使われている。)

出典: California Institute of Technology

Feynmanが量子コンピュータを提唱

Feynmanはカリフォルニア工科大学での講座「Potentialities and Limitations of Computing Machines (コンピュータの可能性と限界)」で量子コンピュータについて言及している。自然界は量子力学に従って動いているので、それをシミュレーションするには量子コンピュータしかないとしている。「自然界の事象は古典物理学で定義できない。自然をシミュレーションするなら、量子コンピュータを使うべきだ。」と述べている。同時に、量子を制御するのは極めて難しいとも述べている。Feynmanが量子コンピュータというコンセプトの生みの親といわれている。

Microsoftはアルゴリズム開発で先行する

Microsoftは2005年から量子コンピュータの開発を始めた。Topological Quantum Computerという極めて難しい方式を追求しており、ハイリスク・ハイリターンのアプローチと言える。Microsoftは潤沢な資金を背景に長期レンジの研究を支える余裕があるとも解釈できる。Microsoftはコア技術であるソフトウェアの開発に力を入れている。シミュレータを使って量子アルゴリズムの開発を進め、量子コンピュータが登場すればすぐに実行できる準備をしている。つまり、量子コンピュータ開発はハードウェアだけでなく、アルゴリズム開発も簡単ではなく時間と費用がかかる。Microsoftはアルゴリズム開発で先行し、世界に役立つアプリケーションの開発を目標に掲げている。

量子アルゴリズム開発のためのソフトウェア

量子コンピュータ・シミュレータ

QuArC で量子コンピュータ向けソフトウェアの開発が進められている。ここでは量子アルゴリズム開発環境や実行環境の開発が進んでいる。これはLanguage-Integrated Quantum Operations (LIQ𝑈𝑖|⟩、”Liquid”と発音) と呼ばれ、量子コンピュータソフトウェアの開発基盤となる。ここで開発した量子アルゴリズムをシミュレータで実行する。LIQ𝑈𝑖|⟩は上位レベルのプログラム言語で記述された量子アルゴリズムを量子デバイス向け命令に翻訳し、この命令セットをシミュレータで実行する構造となる。

LIQ𝑈𝑖|⟩のアーキテクチャ

下のダイアグラムはLIQ𝑈𝑖|⟩のアーキテクチャを示している。開発言語はF#が中心であるが、C#もサポートされている。スクリプト言語から実行ファイルを起動することもできる。これらの言語で生成されたプログラムはゲート機能 (Qubitの動作を定義する関数) に翻訳される。ゲート機能が量子アルゴリズム実行の最小単位となる。

出典: Microsoft  

Circuit Data Structure

生成したプログラムをCircuit Data (物理回路) に翻訳することもできる。これはプログラムを物理的な回路構成にコンパイルするもので、最適化、エラー修正、ノイズ発生などの操作ができる。更に、Circuit Dataを利用者の環境にエクスポートして実行することもできる。

シミュレーション

LIQ𝑈𝑖|⟩はシミュレータ機能を提供する。三つのモデルがあり、Universalは汎用シミュレータでQubitのゲート演算機能を実行する。ただしQubitの数は30までとなる。Stabilizerは大規模な演算を多数のQubitで実行できる。ただし、使えるゲートの種類に制限がある。Hamiltonianは量子システムの物理現象をシミュレーションするモデルで、エネルギー状態の変異で解を求める。

Topological Quantum Computerとは

エラーに対する耐性が高いアーキテクチャ

Topological Quantum Computerとは新しいパラダイムの量子コンピュータでエラーに対する耐性が高いアーキテクチャとなっている。Topologyとはモノをスムーズに変形した時に変わらない性質を研究する学問で位相幾何学といわれる。スムーズに変形するとは、モノを引き延ばしたり、縮めたり、曲げたりすることを指し、引き裂いたりつなぎ合わせることは含まれない。Topologyは外部からの刺激に対して影響を受けにくい特性を持ち、これを量子コンピュータに応用したのがTopological Quantum Computer。

Quasiparticleの集合体と位相の変化

Topological Quantum ComputerはQuasiparticle (疑似粒子) の集合体を基本単位とし、基本単位間の絡み合いを測定し、これを演算単位Qubitとする。Quasiparticleの集合体は縫物の針のように、他の糸と絡まりながら進行する (下の写真、それぞれの線がQuasiparticle集合体で、線は進行経路を示す)。線の絡まり (線が重なり合っている部分) の回数がデータの基本単位Qubitとなる。粒子同士が相互作用を起こすのではなく、Quasiparticleの集合体が絡み合う点に特徴がある。

出典: Nature

Anyonという素粒子

QuasiparticleとしてElementary Particle (素粒子) の一形態であるAnyonが使われる。素粒子は三次元空間ではBosonとFermionのグループで構成される。二次元空間の素粒子はAnyonと呼ばれる。AnyonはAbelianとNon-Abelianに区分されここでは後者が使われる。

最近存在が確認された物質

Anyonは極めて低い温度における電子の並びで、二次元平面のエッジの分部で発生する。Anyonは電子とそのAntimatter (反物質) を同時に持つ。Anyonのような粒子は1937年にイタリアの物理学者Ettore Majoranaが予言し、「Majorana Fermion」とも呼ばれる。しかしMajorana Fermionは見つからずその存在が疑われてきた。2012年になってオランダDelft University of TechnologyのLeo Kouwenhovenによりその存在が初めて観測された。Microsoftは同大学と密接に量子コンピュータの開発を続けている。(下の写真は同大学のTopological Quantum Computing研究で使われている量子コンピュータ。)

出典: Delft University of Technology

ポジションを入れ替える順序に情報をエンコード

MicrosoftがMajorana Fermionという謎の解明が進んでいない素粒子を使って量子コンピュータを開発する理由はその信頼性にある。Topological Quantum Computerはエラーに対する耐性が高い。その理由は個々のQuasiparticleに情報をエンコードするのではなく、粒子の集合体がポジションを入れ替える順序に情報をエンコードするため。Quasiparticleは外部のノイズで強度や位置が変わるが、情報は位相特性に埋め込まれているためノイズの影響を受けない。

長期レンジの研究開発

粒子に情報を埋め込む方式の量子コンピュータのエラー率は高く10^(-4) といわれている。一方、Topological Quantum Computerのエラー率は低く10^(-30)まで到達できる。商用量子コンピュータはエラー率が10^(-10)であることが必要とされ、Topological Quantum Computerはこの条件を満たすことになる。ただ、Topological Quantum Computerはまだ基礎研究の段階で、長期レンジの研究開発が必要となる。