作成者別アーカイブ: nad00251

GoogleはAIの品質保証書「Model Cards」を公開、アルゴリズムの機能と性能と限界を明確にする

社会にAIが幅広く浸透し日々の生活で利用されているが、消費者はAIの機能を理解しないまま使っている。AIは万全ではなく、顔認識で誤認したり、クレジットカード審査で女性が不利になることが報告されている。GoogleはAIの概要を明示する必要があるとして、アルゴリズムの中身を消費者に開示するシステムを開発した。

出典: Google

AIの品質証明書

これは「Model Cards」と呼ばれ、ここにアルゴリズムの機能や性能や限界が記載される。Model CardsはAIの品質保証書とも解釈でき、ここにAIの成績と欠点が書かれ、これを利用者や開発者に公開する。消費者はこれを読み、アルゴリズムの機能と限界を知り、AIを安全に利用する。

犬の種別を見分ける

例えば、ある企業が犬の種別を見分けるAIを開発し、それを販売したとする。Model CardsにはAIに関する基本情報が記載される(上のグラフィックス、イメージ)。これがAIの使用説明書となり、AIの特性を理解し適切に利用する。犬のどんな写真を使うとAIが正しく判定できるのかが分かる。大写しの写真や小さな写真ではAIが正しく判定できないことも理解できる。

Model Card:機能概要の説明

Googleは実際に、顔認識(Face Detection) AIのModel Cardsを公開した(下の写真)。ここには基本機能(Model Description)として、AIの概要が記述される(左側)。AIは認識した顔を四角の枠で囲って示すとの説明がある。また、顔の中で最大34のポイント(Landmark)を認識できるとしている。更に、ニューラルネットワークは「MobileNet」という種類で、軽量のイメージ判定AIであることが分かる。

出典: Google

Model Card:アルゴリズムの限界

Model CardsはAI機能の限界についても記載している。顔の向き(Facial Orientation)の限界を表示し、これを超えると検知できないとしている。また、顔の大きさ(Face Size)が小さすぎると検知できないとしている。具体的には、瞳孔間の距離(Pupillary distance)が10ピクセル以下だと検知できない。他に、暗い場所、顔が隠れている場合、顔が動いている場合は検知できないと注意を喚起している。

Model Card:精度の説明

Model CardsはAIの判定精度についても説明している。精度は「Precision-Recall Values」をプロットしたグラフで示される(上の写真右側)。また、グラフはベンチマークで使用したデータ種類ごとに示され、ここでは三種類のデータセットを使った結果が示されている。Precisionとは顔と認識したケースの精度で、Recallとは写真の顔をどれだけ漏れなく認識できたかを示す指標となる。つまり、Recallを見ると特定グループ(肌の色や性別の集団)の精度が分かり、これにより性別や人種によるバイアスがあるかどうかを検証できる。

出典: Margaret Mitchell et al.

業界で規格化を目指す

医薬品を買うと薬の効能や副作用や注意点が記載された説明書が添付されている。消費者はこれを読んで薬を安全に服用する。同様に、AIを使うときも消費者は説明書(上の写真、笑顔を検知するAIの説明書の事例)を読んで安全に利用する必要がある。これはGoogleが開発したAIだけでなく、他社が開発したAIにも適用することが求められる。このため、GoogleはModel Cardsを第一歩として、業界や開発者団体と共同で、この方式を規格化し普及させることを計画している。アルゴリズムの説明責任が求められる中、この活動がどこに向かうのか注視していく必要がある。

Alphabetは解体されムーンショットは終了か、Googleは激変の年を迎える

Alphabetは2019年12月、創業者のLarry PageとSergey Brinが役職を退き、Sundar Pichaiがこれを引き継ぐことを発表した。PichaiがAlphabetのCEOとなり、Googleを含むすべての経営を掌握する。これまで、PageはAlphabetのCEOとしてムーンショット「Other Bets」を育成してきた。今回の発表でPichaiがAlphabetの経営を担い、ムーンショットを継続するのか、その判断に関心が集まっている。

出典: VentureClef

Alphabetの設立

そもそもAlphabetとは、コア事業体「Google」と新規事業「Other Bets」を統括する親会社で、Other Betsの財政状況をクリアにするため、2015年10月に設立された。PageがCEOに就任し、同時に、PichaiがGoogleのCEOとなった。これにより、PageがAlphabetで次世代ビジネスを育成し、Pichaiが検索などのコア事業を運営する構造となった。

ムーンショットの概要

今回の発表でPageはAlphabetのCEOを退き、Pichaiがその後を引き継ぎ、ムーショットを運営する。Alphabetが設立されてから4年余りで大きな節目を迎えた。Alphabetで野心的な研究開発が進んでいるがこのプロジェクトをムーンショットと呼ぶ。「Waymo」は自動運転車を開発する会社で、既に、無人タクシーの営業運行を始めている。「Calico」は老化のメカニズムの研究を進め、老化を止める医療技術の開発を目指している。「Verily」はヘルスケア企業で、人体をデジタルに把握し健康を定義する。「Sidewalk Labs」はスマートシティを開発する企業でカナダで大規模な事業を進めている。「X」はMoonshot Factoryとも呼ばれ、文字通り革新的な技術を生み出す(下の写真、Xのオフィスビル。Xの他にWaymoやロボット開発チームが入居している)。

出典: VentureClef

組織見直しの理由は

なぜこのタイミングでAlphabet責任者がPageからPichaiに代わるのか、シリコンバレーで様々な憶測が流れている。CNBCはPageの健康問題が要因との見方を示している。Pageは声帯に異常があり大きな声が出ないという障害があり、ビジネスの一線から退いたと説明している。New York Timeは、Pageは会社経営には関心がなく、革新技術を探求するために会社を去ったとの見解を示している。Recodeは、公開されていな重大な出来事が起こり、Pageがこの職をPichaiに移譲したと推測している。どのメディアも真相を把握できておらず、謎に満ちた交代となった。

実質的に引退した状態

この発表とは別に、既に、Googleの顔はPichaiとなっている。PageはGoogle I/Oなどの公の場に姿を見せることはなく、その存在感は薄くなっている。最近では、Alphabet社内にも姿を見せなくなったといわれ、Pageの経営への関与も縮んでいる。事実、連邦議会委員会に出席を求められたが、Pageは出向くことはなく、空席のまま公聴会が進んだ。Pageは事実上、引退している状態であった。

Pichaiの評価

一方、PichaiはGoogleの顔となり、実質的に会社運営を担ってきた。Pichaiの評判は良好で、物静かで控えめなキャラクターと評価されている。Pichaiは本当のギークと評され、技術者の立場から企業運営を担っている。PichaiはしばしばMicrosoft CEOのSatya Nadellaと比較される。両者ともインド出身のアメリカ人で、カリスマ創業者の後を継ぎ、企業文化を保ちながら、うまく事業を拡大している。

ムーンショットの評価

Alphabetが設立され四年余りが経過するが、ムーンショットの成果が問われている。ムーンショットは毎年、大規模な赤字を計上しており、2018年度は34億ドルの損失となった。投資家やウォールストリートはAlphabetが大きな損失を出していることに厳しい見方を示している。Alphabetを閉じコア事業である検索にリソースを集約すべきとの意見が多い。これに対し、PageはGoogleの成長を維持するには新規事業を起こすことが必須であると主張しOther Betsの盾となってきた。

ムーンショットの行方は

PichaiはAlphabetの経営を任され、ムーンショットの運営についてどのような判断を下すのか、市場の関心が集まっている。このままプロジェクトを継続するのか、それとも、中止するのか、重大な決断が下されることになる。ただ、PageとBrinは役職を退いても、両者で株主総会の議決権の56%を有しており、今度は株主として会社経営に関与する。そのため、Pichaiの経営判断はPageの承認を仰ぐことになり、ムーンショットの路線が大きく変わることはないとの見方もある。事実、Waymoは事業開始直前で、ムーンショットの成功事例となる。投資家の視点は短いが、Googleの業績は好調で、その利益をどれだけムーンショットに投入するのか、このバランスが問われることになる。

出典: VentureClef

Googleは新本社を建設中

Googleは本社キャンパスに隣接して新社屋を建設している(上の写真)。外観は今にも飛び立とうとする宇宙船のようにも見え、人目を惹くデザインとなっている。この社屋のテーマは次世代ビルで、この巨大なドームの中に柔軟構造のオフィスビルが建設される。ドームの透明の天蓋で外光や外気を取り入れ、周囲には歩道や緑地が整備される。今年は本社ビルも変わることになる。

米国空軍は量子コミュニケーションの開発を進める、ハッキングできない安全な通信網が国家のインフラを支える

シリコンバレーで2019年12月、量子コンピュータのカンファレンス「Q2B」(#Q2B19)が開催された。米国空軍研究所「Air Force Research Laboratory」は量子情報科学を防衛に応用する研究を進めている。空軍研究所は、量子コミュニケーションの開発を進め、敵国にハッキングされないセキュアな通信網を構築していることを明らかにした(下の写真)。

出典: VentureClef

位置情報システム

空軍研究所は量子技術を位置情報システムと分散処理システムに適用している(下の写真)。位置情報システムはPNT(Position, Navigation, and Timing)と呼ばれ、極めて正確な位置や時間を算出する。軍事ミッションで作戦を展開する際にこれらが基礎情報となる。通常、GPS(全地球測位システム)を使ってこれらの情報を取得するが、交戦中は敵の妨害で衛星のシグナルを受信できな。この事態に備え、量子技術を使って代替システムを開発している。空軍研究所は量子時計「Quantum Clock」や量子ジャイロスコープ「Quantum Gyroscope」を開発している。爆撃機はこれらの機器を搭載しGPSと同程度の精度で数時間飛行できる。

分散処理システム

もう一つは分散処理システムで量子コミュニケーションと量子コンピュータから構成される。量子コミュニケーションとは量子技術を使った通信で、敵国にハッキングされない極めてセキュアな通信網を構築する。量子コンピュータは大量の情報を高速で処理するために使われる。特に、オペレーションの最適化、人工知能、新素材の開発のための量アプリケーションを開発している。両者を組み合わせ量子技術による分散処理システムを構築する。

出典: VentureClef

量子コミュニケーション

空軍研究所が着目している分野がセキュアな通信網の構築である。ここでは「Quantum Key Distribution (QKD)」という方式が使われる。これは「量子鍵配送」と呼ばれ、秘密鍵を量子状態で送信する技法である。実際には、光の構成要素である光子(Photon)の位相に秘密鍵をエンコードして送信する。次に、生成した秘密鍵でテキストなどを暗号化して送り、受信者はこれを秘密鍵で復号化する。この方式では、送信経路上で第三者が秘密鍵を参照すると(秘密鍵を盗むと)、鍵の量子状態(Superpositionの状態)が崩れ、ビット状態(1か0)になる。これによりデータが盗聴されたことが分かるので、極めてセキュアな通信網が構築できる。

衛星通信

この技術は早くから開発されており、ロスアラモス国立研究所は2007年に、ファイバーケーブルによるQKD方式の暗号通信に成功した。空軍研究所は衛星通信によるQKDの開発を進めている(下の写真)。小型衛星と地上局との間でシグナルをセキュアに送受信する試験を進める。更に、複数の衛星でネットワークを構築し、大容量のデータを安全に送受信することが最終ゴールとなる。ここではスパイ衛星が観測したデータを敵国にハッキングされないで安全に地上に送信することを想定している。

出典: VentureClef

複数ノード間での通信

この他に、航空機や地上の基地局を量子コミュニケーションで結ぶ研究も進められている。QKDは極めて安全なネットワークであるが、送信できる距離が短いことが最大の課題となる。この方式では光ファイバーが使われるが、光子がこの中を進むときにその強度が減衰する。今の技術では100キロメートル以上進むことは難しいとされる。そのため、光子を増幅するためのデバイス「増幅器(Repeater)」が必要になる。現在の増幅器は「Trusted Node」と呼ばれ、量子鍵をビットに変換し、それを再度、暗号化する仕組みとなる。空軍研究所は、量子鍵をビットに変換しないで量子状態のまま増幅する「Quantum Repeater」を開発している。増幅器は一対のEntangled Photons(一対の光子が結び付いた状態)をTeleportation(光子の状態をテレポート)させる仕組みで、いかに高速(高輝度)で高品質(稼働時間の長い)の光子対を生成できるかが勝負となる。

出典: VentureClef

米国政府と民間が協調

空軍研究所はブースを設け、ここで研究の最新情報を説明するだけでなく、共同研究のパートナーを募っていた(上の写真)。空軍研究所は企業とのコラボレーションを通し研究を進める作戦を取っている。量子コンピュータや量子コミュニケーションはまだ黎明期の技術で、政府機関が民間企業の技術開発を後押しする構造を示している。また、空軍は仮想敵国との交戦に備え量子コミュニケーションの開発を急いでいるが、この成果は民生化されアメリカ社会で展開されることになる。スパコン開発でもそうであったが、米国は軍と民間が共同で量子コンピュータと量子コミュニケーションの開発を進めている。

IBMの量子コンピュータ開発、2020年代にスパコンをはるかに凌駕するシステムが登場

シリコンバレーで2019年12月、量子コンピュータのカンファレンス「Q2B」(#Q2B19)が開催された。IBMは基調講演で「IBM’s Hardware-focused Collaborative Quantum Network」と題し、量子コンピュータの開発経緯と共同研究の成果について説明した(下の写真)。量子プロセッサの性能は毎年倍増しており、このペースでいくと2020年代に高信頼性量子コンピュータが登場する。

出典: VentureClef

IBM Q System One

IBMは2019年1月、世界初の商用量子コンピュータ「IBM Q System One」を発表している。システムは演算機構や冷却機構を統合し、一つのパッケージに格納される。プロセッサは20 Qubit構成で、エラー無く稼働できる時間(Coherence Time)は100マイクロセカンド。IBMはこれを「Quantum Devices」と呼び、最終目標の高信頼性量子コンピュータ「Fault-Tolerant Quantum Computers」と区別している。Quantum DevicesはいわゆるNISQ(Noisy Intermediate Scale Quantum Computer)タイプで、エラー発生率が高い中規模のマシンとなる。IBMは次期モデルは53 Qubitを搭載することを明らかにした(下の写真)。

出典: VentureClef

量子コンピュータセンター

IBMは2019年9月、量子コンピュータセンター「Quantum Computation Center」をPoughkeepsie (ニューヨーク州)に開設したことを明らかにした。ここで15台のシステムが稼働しており、最大構成のシステムは53 Qubitを搭載している。これらのシステムは量子クラウド「IBM Q Experience」で一般ユーザに提供されている。また、大学や企業との開発コミュニティ「IBM Q Network」がこのシステムを使って量子アルゴリズムの開発を進めている。

量子プロセッサ開発経緯

IBMは量子コンピュータ開発で業界のトップを走っている。最初の量子プロセッサは5 Qubit構成で「Tenerife」と呼ばれ、2017年から量子クラウドで公開されている。その後、16 Qubit構成のプロセッサ「Melbourne」や20 Qubit構成のプロセッサ「Poughkeepsie」など複数のモデルが開発された。最新モデルは53 Qubit構成の量子プロセッサ「Rochester」で上記の量子コンピュータセンターで運用されている。

出典: IBM Research

(上の写真は量子コンピュータセンターで稼働している量子プロセッサのモデル。左側は現行モデルで、右側は最新モデル「Rochester」。ダイアグラムは量子プロセッサにおけるQubitの配置とQubit間の連結(Connectivity)を示す。青丸がQubitで実線は連結を示す。Qubitの数が同じでも連結パターンが異なると特性が変わる。)

量子プロセッサの信頼性向上

量子プロセッサは改良が繰り返され信頼性が向上している。下のグラフはゲート演算を実行した時のエラー率を示したもの。具体的にはControlled NOT(CNOT)というゲート演算(二つのQubit間での論理演算)を実行したときのエラー率(右に行くほど高い)を示している。最上段は「Tenerife」(5 Qubit構成)で、最下段は「Boeblingen」(20 Qubit構成)を示し、エラー率が大きく低下しているのが分かる。これはQubitの物理特性を改善したことに加え、Qubitを繋ぐパターンが大きく影響している。

出典: VentureClef

Quantum Volume

IBMは量子プロセッサの性能を評価する指標として「Quantum Volume」という概念を発表している。量子コンピュータの性能はQubitの数で決まるのではなく、プロセッサのアーキテクチャなどが影響する。このため、Quantum Volumeは、Qubitの数に加え、Qubit間の通信、ゲートの数(Qubitの連結数)、Qubitのエラー率などを総合的に加味して算出される。

Quantum Advantage

実際に量子プロセッサのQuantum Volumeが計測され公開されている(下のグラフ)。縦軸がQuantum Volumeで横軸は時間を示し、毎年、性能が向上していることが分かる。「Tenerife」(5 Qubit構成)のQuantum Volumeは4で、「Tokyo」(20 Qubit構成)は8で、Q System One (20 Qubit構成)は16となる。このペースで量子プロセッサの性能が向上すると、2020年代には「Quantum Advantage」に到達するとしている。Quantum Advantageとは量子アプリケーションがスパコンの性能をはるかに凌駕するポイントで、真の量子コンピュータの登場を意味する。

出典: VentureClef

IBM Q Network

IBMは独自で量子プロセッサの開発を進めるが、量子アプリケーションについてはコミュニティ「IBM Q Network」を通じて開発する戦略を取っている。コミュニティは企業、大学、スタートアップから構成され、IBM Qを使って量子アプリケーションが開発されている。IBMは、製品が完成してから出荷するのではなく、開発中の量子コンピュータやシミュレータをコミュニティに公開し、量子アプリケーション開発を進める。(下の写真、IBMのブースでIBM Qについての説明が行われた。)

出典: VentureClef

JPMorgan Chaseの事例

IBMはIBM Q Networkで大手企業と共同研究を進めているが、金融と化学の分野で大きな成果があったことを明らかにした。前者に関して、JPMorgan ChaseはIBM Qを使って金融アルゴリズムの研究を進めている。IBM QはNISQタイプの量子コンピュータで大規模なゲート演算はできないため、小規模なアルゴリズムの開発が中心となる。JPMorganが着目しているのはオプション価格の計算(option-pricing calculations)とポートフォリオのリスク査定(risk assessments)で、これらを量子コンピュータで実行し高速化を目指している。

量子アルゴリズム開発

実際に、リスク解析「Quantum Risk Analysis」の量子アルゴリズムを開発し、それをIBM Qで実行し、現行システムを上回ったことが報告された。現在、リスク解析ではMonte Carlo Simulationが使われるが、量子アルゴリズムはこの性能を上回った。(下のグラフ、演算結果のエラー率を示したもので、量子アルゴリズム(水色の線)はMonte Carlo Simulation(青色の線)に比べ速く収束することを示している。これは国債を保有するときのリスクを計算したもので、量子アルゴリズムは少ないデータで結果を出せることを意味する。)

出典: VentureClef

日本における量子技術開発のハブ

この他に、三菱ケミカルとの共同研究で、リチウムイオン電池の分子構造を量子コンピュータで解析し、その成果が報告された。IBM Q Networkの主要メンバーが慶応大学で、ここに量子プロセッサが設置されており(上述の「Tokyo」プロセッサ)、三菱ケミカルの研究はこのマシンで実施された。更に、IBMはカンファレンスの直後、東京大学にIBM Q System Oneを設置することを発表した。IBMは日本の技術力に着目しており、このシステムで大学や企業と共同研究を進める。IBMはこのシステムが日本の量子技術研究のハブになると述べている。

米国の量子コンピュータ開発の流れ、2020年は量子アルゴリズムと高信頼性量子プロセッサの開発が進む

シリコンバレーで2019年12月、量子コンピュータのカンファレンス「Q2B」(#Q2B19)が開催された。これはQC Wareが主催するもので、IBMやGoogleやMicrosoftなど大手企業の他に、RigettiやIonQやCambridge Quantum Computingなど主要ベンチャー企業が新技術を紹介した。民間企業だけでなく、それを支える大学や政府機関も加わり、最新技術が議論された。

出典: VentureClef

John Preskill教授の基調講演

民間企業で量子コンピュータ開発が進むが、物理学の観点からその基礎概念と開発ロードマップが示された。カリフォルニア工科大学(California Institute of Technology)教授John Preskillは基調講演で、量子物理学の観点から技術の流れを説明し、量子コンピュータ開発の方向性を提示した(上の写真)。Preskillは量子コンピュータの生みの親であるRichard Feynmanの流れを引き継ぎ、量子コンピュータ業界を理論面でけん引している。

2020年の開発方向

Preskillは「What’s Next After Quantum Supremacy?」と題して、量子コンピュータがスパコンを越えた次はどこに向かうべきかその指針を示した。因みに、スパコン越え「Quantum Supremacy」というコンセプトはPreskillが提唱したものである。Googleの量子コンピュータ「Sycamore」はこれを達成したとの認識を示し、講演では、量子アプリケーション開発と量子プロセッサの信頼性向上が次の目標になるとの見解を明らかにした。

量子アプリケーション開発

IBMやGoogleは量子コンピュータのプロトタイプ(NISQ:Noisy Intermediate-Scale Quantum技術)を開発し一般に公開している。NISQとは中規模でノイズが高い(エラー発生率が高い)量子コンピュータで、稼働時間は短く、大規模な演算を実行できない。次は、このNISQで量子アプリケーションを開発することが目標となる。不安定なプロセッサで社会に役立つ量子アプリケーションを開発することが問われている。

量子アプリケーション候補1:最適化問題

Preskillは、NISQタイプの量子コンピュータが単独でスパコンの性能を超えることは難しいとみている。このため、量子コンピュータを現行コンピュータと連結したハイブリッド構成でアプリケーションを実行することが解になる。この構成では最適化処理のアプリ「Optimizer」が有力候補となる。具体的には、Quantum Approximate Optimization Algorithm (QAOA)などのモデルを示した。(下の写真、現行コンピュータで最適化アプリを実行するが、その一部を量子プロセッサにアウトソースする。現行コンピュータは演算結果を受け取り、最適化が進む方向を探り、このプロセスを繰り返す。)

出典: VentureClef

量子アプリケーション候補2:機械学習

人工知能や機械学習がブームであるがPreskillはこれに対して厳しい見方を示している。特に、深層学習(Deep Learning)は、動作メカニズムが分からないまま経験的に使われており、論理的な解明が必要であると指摘する。一方、量子コンピュータで機械学習アルゴリズムが上手く稼働する可能性についても述べた。量子コンピュータを使ったニューラルネットワークの教育(Quantum Deep Learning Network)が研究テーマになるとしている。ニューラルネットワークの教育では大量のデータを必要とし、これらをQubitにエンコードする。このために、量子メモリ「Quantum Random Access Memory」の開発が必要となる。QRAMとは情報をQubitに格納する記憶装置で、量子コミュニケーションでも必須技術となるため研究開発が進んでいる。一方、大規模なデータをQRAMに読み込ませるには時間がかかるため、結局、機械学習アルゴリズムを量子プロセッサで実行してもスパコンに勝てない可能性もある。このため、データを量子状態のままで入出力する量子機械学習アルゴリズムに着目するよう述べた。本当に機械学習アルゴリズムを量子プロセッサで高速化できるのか、ブレークスルーを目指して研究が進んでいる。

量子プロセッサの信頼性向上1:エラー補正技術

Preskillが提案するもう一つの柱は量子プロセッサの信頼性をあげるための技術開発である。NISQで量子アプリケーションを実行するには、プロセッサの信頼性を上げることが必須条件となる。今の量子プロセッサはエラーが発生してもそれを補正する機構はなく、次の目標はエラー補正「Quantum Error Correction (QEC) 」機構を備えたシステムの開発となる。Qubitで発生するエラーを補正するためには別のQubitが必要となる。1つのQubitのエラーを補正するためには複数のQubitが必要になる。例えば、暗号化アルゴリズム「RSA 2048」を実行するためにはエラー補正のQubitを含めシステム全体で2000万個のQubitが必要になるとの研究もある。これではハードウェアの負担が重すぎるため、ソフトウェアでエラーを補正する技術の開発が進んでいる。これは「Surface Code」と呼ばれ、コードで量子プロセッサのエラーを補正する操作を実行する。QECとSurface Codeを併用することで実用的な高信頼性マシンが生まれる。

出典: VentureClef

量子プロセッサの信頼性向上2:Qubitのアーキテクチャ

最終的には、Qubit自体の信頼性をあげることが究極の解となる。ノイズに耐性があり安定して稼働するQubitの素材やアーキテクチャが見つかれば、量子プロセッサの信頼性が一気に向上する。Preskillはこの観点から、GKP Codes、Zero-Pi Qubit、及び、Topological Quantum Computingが有望であるとしている(上の写真)。Topological Quantum ComputingとはMicrosoftが開発している技術で、位相にデータをエンコードするもので、けた違いに安定したQubitができる。しかし、まだ物理的にQubitは生成されておらず、長期的な研究が必要となる。今は、IBMやGoogleが採用しているSuperconducting Qubitという手法が主流であるが、Preskillは他のアーキテクチャの探索が重要で、どこかで大きなブレークスルーが生まれることに期待を寄せている。また、Spin Qubitsという手法で大きな進展があったとしている。Spin QubitsとはIntelが開発している技法のひとつで、シリコンの穴に電子をトラップし、電子のスピンでQubitを生成するもの。量子プロセッサの基本方式は雌雄が決着しておらず試行錯誤が続いている。(IBMのスタッフにSuperconducting Qubitが主流になるかと尋ねると、そう願いたいがまだ確信は持てない、と正直な感想を話してくれた)。

産学共同で産業を育成

カンファレンスで多くの参加者と話をすると、量子コンピュータ開発は黎明期で、基礎研究と製品開発が同時進行していることを痛切に感じた。ちょうど、スパコン開発が始まったころの状況に似ており、プロセッサの素材やアーキテクチャなどの基礎研究が進み、その成果をもとに製品の方向が決まりつつある。そのため、企業だけでなく大学や政府の基礎研究が極めて重要な役割を担い、製品開発を下支えしている。米国の産学が一体となって技術を積み上げ、量子コンピュータ産業を育成していることを肌で感じた。