カテゴリー別アーカイブ: Google

DeepMindは最強の囲碁ソフト「AlphaGo Zero」を公開、人間の知識や教育データは不要!AIが自ら学習しシンギュラリティに近づく

DeepMindはAIが自律的に知識を習得する囲碁ソフト「AlphaGo Zero」を公開した。AlphaGo Zeroは人間の知識や教育データは不要で、AI同士の対戦で技量を上げる。AlphaGo Zeroは人間のような学習能力を身に付け、汎用人工知能への道筋を示した。シンギュラリティに一歩近づいたとも解釈できる。

出典: DeepMind  

Tabula Rasa:ゼロから学ぶ

AlphaGo Zeroの技術詳細は科学雑誌Natureに「Mastering the game of Go without human knowledge」として公開された。DeepMindのAI研究最終目的は人間を超越する学習能力を持つアルゴリズムを開発することにある。ゼロの状態から知識を習得する手法は「Tabula Rasa (空白のページ)」とも呼ばれる。人間は生まれた時は空白の状態で、学習を通じ知識を増やし、判断するルールを獲得する。これと同様に、生成されたばかりのAIは空白であるが、自律学習を通じ知識やルールを学ぶアルゴリズムが最終ゴールとなる。AlphaGo Zeroは囲碁の領域でこれを達成し究極の目標に一歩近づいた。

DeepMindのマイルストーン

DeepMindは一貫してこの目標に向かってAI開発を進めている。2013年12月、AIがビデオゲームを見るだけでルールを学習し、人間を遥かに上回る技量でプレーするアルゴリズム (DQNと呼ばれる) を公開し世界を驚かせた。2015年10月、高度に複雑な技量を必要する囲碁で、AlphaGoが欧州チャンピオンFan Huiを破った。2016年3月、改良されたAlphaGoが世界最強の棋士Lee Sedolを破り再び世界に衝撃を与えた。

AIが自律的に学習

今回発表されたAlphaGo Zeroは上記のAlphaGoから機能が格段に進化した。AlphaGo Zeroは自分自身との対戦を通じ技量を習得していく。最初は初心者の状態でランダムにプレーするが、対戦を重ね技量を上げていく。この過程で人間がアルゴリズムを教育する必要はない。プロ棋士の棋譜などを入力する必要はなくAIが独自で学習する。AlphaGo ZeroはReinforcement Learning (強化学習、下の写真はその構造を示す) という技法を搭載しており、アルゴリズムが人間のように試行錯誤しながら囲碁を学んでいく。

出典: Stanford University  

単一のネットワーク

アーキテクチャの観点からは、AlphaGo Zeroは単一のネットワークで構成され構造がシンプルになった。従来のAlphaGoは二つのネットワーク (policy network (次の一手を決定) とvalue network (局面を評価))で構成されていた。AlphaGo Zeroではこれらを一つにまとめ、単一ネットワークが次の手を探しその局面を評価する。また、AlphaGo Zeroは次の手を探すためにTree Searchという方式を使っている。

短期間で腕を上げた

AlphaGo Zeroはセルフプレイを通じてReinforcement Learningアルゴリズムを教育した。アルゴリズムは振動したり過去の対戦成果を忘れることなく順調に技量を増していった。下のグラフは教育に要した日数 (横軸) と技量 (縦軸) を示している。3日でAlphaGo Lee (Lee Sedolに勝ったバージョン) の性能を上回った。一方、AlphaGo Leeの教育には数か月を要した。21日でAlphaGo Master (世界チャンピオンKe Jieに勝ったバージョン) の性能を上回った。40日経過したところでAlphaGo Zeroは全てのバージョンの性能を凌駕した。

出典: DeepMind  

人間の教育は不完全

AlphaGo Zeroは40日の教育で2900万回対戦し世界最高の性能に到達した。下のグラフはAlphaGoのそれぞれのバージョンの性能を示している。興味深いのはAlphaGo Masterとの性能比である。AlphaGo MasterはAlphaGo Zeroと同じネットワーク構成であるが、Masterは人間が教育したアルゴリズムである。このグラフは人間が教育すると技量が伸びないことを示している。つまり、人間が教育するよりAIが独自で学習するほうが技量が伸びることが証明された。人間の教育は不完全であることの立証ともなり、AIが自律学習することの必要性を示した結果となった。

出典: DeepMind  

プロセッサ構成

AlphaGo Zeroはアーキテクチャがシンプルになり計算量が大幅に減少した。AlphaGo Zeroは4台のTPU (tensor processing units) を使いシングルコピーで稼働する。これに対し、AlphaGo Leeは48台のTPUを使い複数コピーを稼働させていた。AlphaGo Zeroは機能が向上したことに加え、効率的に稼働するシステムとなった。TPUとはGoogleが開発した機械学習に特化したプロセッサで、ASIC (専用回路を持つ半導体チップ) でTensorFlow向けに最適化されている。

定石を次ぎ次に発見

AlphaGo Zeroは教育の過程で囲碁の「定石」を次々に発見した。定石とは最善とされる決まった打ち方で、人間が数千年かけて生み出してきた。AlphaGo Zeroはこれら定石を72時間の教育で発見た。更に、AlphaGo Zeroは人間がまだ生み出していない「定石」を発見した。新しい定石は人間の試合では使われていないが、AlphaGo Zeroはこの定石を対戦の中で頻繁に利用し技量を上げた。

Reinforcement Learningの改良

AlphaGo ZeroはReinforcement Learningアルゴリズムが大きな成果をもたらすことを実証した。DeepMindが開発したReinforcement Learningは人間をはるかに上回る技能を獲得し、更に、人間が教育する必要はないことを証明した。人類は数千年かけて囲碁の知識を獲得したが、Reinforcement Learningは数日でこれを習得し、更に、人間が到達していない新たな知識をも獲得した。

汎用AIの開発が始まる

AlphaGo Zeroの最大の功績は自律的に学習する能力を獲得したことにあり、汎用的なAI (General AI) へ道が大きく開けた。汎用的なAIとは狭義のAI (Narrow AI) に対比して使われ、AIが特定タスクだけでなく広範にタスクを実行できる能力を指す。AlphaGo ZeroのケースではAIが囲碁をプレーするだけでなく、科学研究のタスクを実行することが次のステップとなる。ルールが明確でゴールが設定されている分野でAlphaGo Zeroの技法を展開する研究が始まった。

新薬開発などに応用

短期的には、DeepMindはAlphaGo Zeroを新薬開発に不可欠な技術であるProtein Foldingに応用する。Protein Foldingとはタンパク質が特定の立体形状に折りたたまれる現象を指す。ポリペプチド (polypeptide) がコイル状の形態から重なり合って三次元の形状を構成するプロセスで、このメカニズムを解明することが新薬開発につながる。しかしProtein Foldingに関するデータは限られており機械学習の手法では解決できない。このためReinforcement Learningの手法ででこれを解明することに期待が寄せられている。

自らルールを学ぶAIが次の目標

長期的には量子化学 (Quantum Chemistry)、新素材の開発、ロボティックスへの応用が期待される。Reinforcement Learningを実社会に適用するためにはアルゴリズムが自らルールを学習する技能が必要になる。DQNがテレビゲームを見るだけでルールを学んだように、AlphaGo Zeroが自らルールを学ぶ能力が求められる。DeepMindはこの目標に向かって開発を進めていることを明らかにしている。AlphaGo Zeroの次はもっとインテリジェントなAIが登場することになる。

GoogleのAIスマホ「Pixel 2」は世界最高水準のカメラ、Deep Learningが鮮やかな画像を生成する

Googleは2017年10月4日、第二世代のAIスマホ「Pixel 2」(下の写真、左側) と「Pixel 2 XL」(下の写真、右側) を発表した。Pixel 2はカメラ性能が大きく進化し、ベンチマークで世界最高位をマークした。高い評価を受けた理由はDeep Learning技法の強化で、AIが高品質の画像を生成する。

出典: Google  

AIで構成されるスマートフォン

Pixel 2は音声アシスタント「Google Assistant」、ビジュアル検索機能「Google Lens」、及びイメージ生成技法「Computing Photography」とAI機能をフルに実装している。Pixel 2はイメージ生成機能が格段に強化され、世界最高のスマホカメラと評価されている。カメラの世界標準ベンチマーク「DxOMark」でPixel 2は98ポイントと評価されトップとなった。前モデルのPixelは89ポイントで、Pixel 2のカメラ性能が大きく向上したことが分かる。

人物写真専用モード「Portrait Mode」

Pixel 2は人物を撮影するための機能「Portrait Mode」を導入した。これは人物をシャープに、また、背景をぼかして撮影する機能である (下の写真)。一眼レフカメラでは望遠レンズの絞りを開き被写界深度を浅くして撮影する。Apple iPhone 8では搭載されている二つのカメラで被写体と背景を3Dで捉えてこれを表現する。これに対しPixel 2は一つのカメラでPortrait Modeの撮影ができる。撮影されたイメージをMachine Learningの手法で解析しPortrait Modeに変換する。

出典: Google  

特殊なセンサーを搭載

Pixel 2はメインカメラ (12.2MP, f/1.8) に「Dual-Pixel Sensor」という特殊なイメージセンサーを搭載している。撮影した写真はこのセンサーで二つに分解される。右と左の二つのカメラで撮影したように、二枚のイメージとして把握する。つまり、左右二台のカメラで撮影したように、イメージを3Dで捉えることができる。

Machine Learningの手法で画像を生成

次に、このイメージをDeep Learningの手法で解析し被写体と背景を明確に区分けする。アルゴリズムは百万枚の写真を使い教育され様々なシーンに対応できる。アルゴリズムは前面と背景を区別できるようになり、カメラは人物のパーツ部分をシャープにフォーカスし、それ以外の部分はボケ(Bokeh)の効果を与える。人物だけでなくモノに対してもPortrait Modeで撮影できる。このモードを使うとプロカメラマンのように被写体が背景に浮き上がる写真を取ることができる。

自撮りでも使える

Portrait Modeはフロントカメラ (8MP, f/2.4) でも使うことができる。フロントカメラはDual-Pixel Sensorを搭載していないがDeep Learningの手法でPortrait Modeを生成する。アルゴリズムは画像の中で顔を認識し、顔に繋がっている身体パーツや髪などを把握する。つまり、アルゴリズムが人物の形状を認識しそこにフォーカスを当てる。このため、自撮り (Selfie) でPortrait Modeを使うことができる (下の写真、左側)。もし画面に顔が映っていなければPortrait Modeはオフとなる。

出典: Google  

イメージを生成する機能「HDR+」

Pixel 2は暗い環境でも細部にわたり精密に表現できる (下の写真)。また、光のコントラストが厳しい状況でもバランスよくイメージを生成する。これは「HDR+」というイメージ合成手法により実現される。そもそも、HDR (High Dynamic Range) イメージングという手法は異なる露出の複数枚の写真を組み合わせて一枚の写真を生成する技術を指し、多くのスマホで幅広く使われている。これに対しHDR+は同じ露出の写真を多数枚組み合わせて一枚の写真を生成する手法である。

出典: Google  

Computation Photography

Pixel 2はカメラアプリを開いた時から撮影を始め、シャッターが押されたポイントを撮りたいシーンと理解する。HDR+は数多くの写真を重ねるが、同じ露出で撮影するので暗い部分はノイズが乗る。しかし、暗い部分の写真を数多く重ね合わせることで数学的にノイズを減らす。この手法により、光の条件が厳しいところでも綺麗な写真が撮れ、また、Portrait Modeでは肌が滑らかに仕上がる。HRD+はアルゴリズムがイメージを生成する方式で「Computation Photography」とも呼ばれる。カメラはAIを含むソフトウエアが機能や性能を決定する。

高度な手ぶれ補正機構

Pixel 2のメインカメラはビデオや写真撮影向けに高度な手ぶれ補正機構を搭載している。これは「EIS (electrical image stabilization) 」と「OIS (optical image stabilization)」とMachine Learningで構成される。EISはハードウェア機能でセンサーが画像のブレを補正する。OISはソフトウェア機能でフレームごとのブレをアルゴリズムが補正する。Pixel 2はOISをジャイロと連携し手の物理的な振動を検知する。これらの情報をMachine Learningで解析し安定したイメージを生成する。具体的にはMachine Learningは撮影した各フレームから主要な動き(例えばオートバイの動き)を検知し、これに沿って撮影したフレームからブレを補正する。

ビジュアル検索機能「Google Lens」

Pixel 2はビジュアル検索機能「Google Lens」を搭載した。Google Lensとはカメラが捉えたオブジェクトに関する情報を画面に表示する機能である。Google LensはMachine Vision (画像認識機能) とMachine LearningとKnowledge Graph (知識データベース) で構成される。名所旧跡や本や音楽アルバムや映画などの情報を表示することができる。例えば、建物をGoogle Lensで見るとこれは1236年に建立された東福寺であることが分かる (一つ上の写真、右側)。

AIカメラ「Google Clips」

Googleは小型軽量のカメラ「Google Clips」 (下の写真) を発表した。これはハンズフリーカメラでClipsが自動でビデオを撮影する。Clipsをテーブルの上に立てて置いたり、椅子に挟んで使う。Clipsは興味あるシーンを認識し自動でシャッターを切る。また、専用アプリで利用者がシャッターボタンを押して撮影することもできる。

出典: Google  

人物を識別する

Clipsはインテリジェントな機能を持ちAIが人物を識別する。このためClipsは親しい人物を中心に撮影する。また、Clipsは撮影のタイミングも自律的に判断する。被写体の動きが止まったタイミングを見て撮影を始める。また、被写体の一部が隠れているようなときは撮影しない。このため事前にClipsに家族関係者などを教えておく。また、Clipsを使うにつれ搭載されているMachine Learningは親しくしている人物を学びその人を中心に撮影するようになる。Clipsは屋内で家族やペットなどを撮影することを想定してデザインされている。

専用AIプロセッサを搭載

Clipsは専用AIプロセッサを内蔵している。このプロセッサはMovidius社の「Myriad 2」で、Computer Vision機能を司る。ここで人物の顔を認識しAI機能はデバイス上で実行される。この方式は「On-Device AI」と呼ばれる。クラウドと接続する必要はなく、顔情報をデバイスに格納し個人のプライバシーを守ることができる。

カメラとAIは相性がいい

Googleはハードウェア製品にAIをフルに実装し機能強化を推し進めている。Pixel 2ではAIがプロの写真家の役割を担い高品質なイメージを生成する。Clipsではもはや写真を撮影する行為は必要が無くAIが最適なシーンを撮影する。カメラはコンピュータとなり機能や特性はDeep Learningが決定する。カメラとAIは相性が良く技術革新が急速に進むことになる。

GoogleはAIスピーカー「Home」を大幅強化、高度なDeep Learningが製品の価値を決める

Googleは2017年10月4日、ハードウェア新製品を一挙に発表した (下の写真)。製品はハードウェアがソフトウェアとAIに融合した形式となっている。AIが製品を差別化する決定的な要因になっていることが分かる。

出典: Google  

新製品ラインアップ

発表された製品は次の通り。「Pixel 2」はスマホ最新モデルでAIを使ったイメージング技術でカメラの性能が格段に向上。AIスピーカーGoogle Homeの小型モデル「Mini」と最上位モデル「Max」が登場。「Google Clips」はAIカメラでアルゴリズムが最適なシーンを識別し自動で撮影する。「Google Pixel Buds」はBluetoothヘッドセットで音楽を再生し異なる言語を翻訳する。この他に「Pixelbook」と「Daydream View」の新製品が登場した。

ドーナツ型の「Mini」

発表の主要テーマはAIで全ての製品がAIで強化された。その中でもGoogle HomeのAI機能が大きく進化した。Google Home製品ラインが拡充され「Mini」と「Max」が登場した。これらは「Home」と同様にAIアシスタント「Google Assistant」が搭載され、ヒトの言葉を理解し音声で操作する。Miniはドーナツサイズの形状で (下の写真)、上部にはLEDライトが搭載されデバイスの状況が表示される。各部屋に一台備えることを前提としたデザインで、家庭空間がAIで埋め尽くされる。

出典: Google  

音質を重視した「Max」

Maxは音質を重視したモデルでハードウェアとAIでこれを達成する (下の写真)。Maxは4.5インチのウーファーを2基搭載しディープなサウンドを生成する。「Smart Sound」機能を搭載し、AIが置かれた環境やコンテクストに合わせ音楽を再生する。AIが部屋の形状を把握しそれに最適なサウンドを再生する。また、朝はボリュームを控えて再生するが、食器洗い機が回っている時はボリュームを上げる。

出典: Google  

Google Assistantがベース

HomeにはAIアシスタント「Google Assistant」が組み込まれ製品の中核機能となる。Google Assistantはこの他に、スマートフォン (AndroidとiOS)、スマートウォッチ (Android Ware) 及びテレビ (Android TV)にも対応し、製品インターフェイスは急速に音声に向かっている。Google Assistantはエコシステムを広げ、スマートホーム関連ではNest、Philips Hue、SmartThingsなど1000製品とリンクしている。

Google Assistant新機能

Google Assistantは質問に応え、音楽を再生し、家電を制御するハブとなる。また、六人の声を聞き分け (Voice Matchという機能)、利用者に沿った対応ができる。発表イベントではGoogle Assistantの新機能が紹介された。「Everyday Routines」は一言で複数のコマンドを実行する機能。例えば、「Good Morning」というと、Homeは一日のスケジュールを確認し、道路渋滞情報を知らせ、主要ニュースを読み上げる。「Let’s Play a Game」と指示すると子供向けのゲームが始まる。Homeは子供に人気のデバイスで、子供たちが安全に使える機能が登場した。

スマートホーム連携が強化された

Google HomeはAlphabet配下のスマートホーム企業Nestとの連携を強化した。Nestのセキュリティカメラ「Nest Cam」をGoogle Homeから操作できるようになった。例えば、玄関で物音がしたときに「Show me the entryway on my TV」と語ると玄関の様子がテレビに映し出される (下の写真)。

出典: Google  

ドアベル「Nest Hello」をGoogle Homeから操作できる。Nest Helloは顔認識機能を備え来訪者を識別できる (Familiar Facesという機能)。来訪者がドアベルを押すとHelloはその人物を認識し、Google Homeは「Anti Susie is at the front door」と訪問者の名前を知らせてくれる。Nestと連携することで家屋のセキュリティをGoogle Homeで集中管理できる。

出典: Google  

DeepMindの音声合成技術

Google Homeの音声が高度なAIを適用することでとても滑らかになった。DeepMindは昨年、音声合成(Speech Synthesis)に関する新技術を発表した。これは「WaveNet」と呼ばれDeep Neural Networkを使い人間のような自然な発声ができる技法を開発した。一般に音声合成は言葉をごく小さなパーツに分けてこれを繋ぎ合わせる方式 (Concatenative TTS)でスピーチを生成する。このため機械的でぎこちないトーンとなる。

滑らかなスピーチを生成する仕組み

これに対してDeepMindは従来方式と全くことなるアプローチを取る。WaveNetは多くの音声サンプルを学び、音声の波形(Audio Waveform)をゼロから丸ごと生成する。具体的にはネットワーク (Convolutional Neural Network、下の写真) はスピーチの構成を学習し、どの音色(Tone)の後にどの音色が続くか、また、どんな波形(Waveform)が自然であるかを学ぶ。このため、非常に滑らかな音声を合成できるようになった。

出典: Aaron van den Oord et al.

WaveNetをGoogle Homeに適用

しかし、昨年の時点では音声合成を短時間で実行することができなかった。0.02秒のオーディオを生成するために1秒を要した。DeepMindはこのアルゴリズムを改良し、高速で音声合成ができるようにした。1秒のオーディオを50ミリ秒で生成できリアルタイムで使えるようになった。Google Homeで使われている音声は改良されたWaveNetで生成されたものである。WaveNetは英語と日本語を対象としており、日本で発売されるGoogle Homeの音声はWaveNetで生成されたものである。

AIが差別化の要因

このようにGoogle Homeはシステムの背後で最新のAI技法が幅広く使われている。利用者の音声を認識するだけでなく、音声合成でもAI無しでは実現できない。ハードウェア製品の主要機能は各社とも横並びの状態になり、これからはAIが差別化の要因となり製品価値を決定する。

AIがAIを開発し、AIが病気を検知する、Googleは全製品をAIで強化する

Googleは2017年5月、開発者会議「Google I/O 2017」を開催し (下の写真) AIの最新技術を公表した。GoogleはAI First企業として全社でAI化戦略「Google.ai」を進めていることを明らかにした。CEOであるSundar Pichaiが基調講演で明らかにし、その後研究詳細がリリースされた。

出典: Google

Google.aiは三つの軸から成る

Google.aiはGoogleの社内プロジェクトで、高度なAIを開発しこれを全ての製品の基盤技術とする開発戦略を指す。Google.aiは「基礎研究」、「ツール」、「応用技術」の三つの分野で構成されプロジェクトが進んでいる。基礎研究とは高度なAI技法の開発で、ツールとはAIを実行するプロセッサなどを指し、AIデータセンタとして提供される。応用技術ではAIでGoogleサービスを機能強化した事例が紹介された。

AIがAIを生成する技術

「基礎研究」でGoogleが注目しているテーマは「AutoML」である。これはMachine Learningを自動生成する研究で、アルゴリズムが別のアルゴリズムを生成する技法の開発を進めている。AIがAIを生成する技術を意味する。下の写真がその事例でAIが生成したDeep Learningアルゴリズム (右側) を示している。これはRecurrent構造 (処理結果を次のステップにループさせる構造) のネットワークで時間に依存する言語処理などで使われる。このケースではネットワークに言葉を入力すると次の言葉を予測する。

出典: Google

アルゴリズム生成方式

アルゴリズム開発は研究者の経験と勘が大きく寄与する。確立されている手法をベースに改良が加えられ新しいモデルを生成する。一方、AIは数多くのアルゴリズムを生成し、これらを実際に教育し実行し精度を把握する。これらのフィードバックをもとに、精度の高いアルゴリズムの作り方を学習する。人間は定石を積み重ねるが、AIは時として常識を覆す方式を生成する。因みにこのケースではAIが生成したアルゴリズム (上の写真右側) が人間が開発したアルゴリズム(同左側)の精度を上回った。

AIがAI研究者となる

AutoMLはGoogle Brainが研究しているテーマで、AIが最適なネットワーク構成を自動で設計することを目指す。つまりDeep Learningアルゴリズム設計に携わる研究者をAIが置き換えることを意味する。AI研究者自身もAIの進化で職を失うことになる。しかし、現実はAI研究者の数は決定的に不足しており、これをAutoMLで補う構造となる。GoogleとしてはAIに置き換えられた研究者をクラウド開発に振り向け事業を強化するとしている。

AI専用プロセッサ

二番目の区分「ツール」に関しては「Cloud TPU」が発表された (下の写真)。Cloud TPUは二代目のTPU (Tensor Processing Unit、Machine Learning計算専用プロセッサ) で大規模計算用にスケーラビリティを重視した設計になっている。Cloud TPUの性能は180Tflopsで64GBの高速メモリを搭載する。

出典: Google

AI First Datacenter

Cloud TPUは64個がボードに搭載され「TPU Pods」を構成する。ボードの最大性能は11.5 Petaflopsとスパコン並みの性能となる。TPU Podはラックに搭載され (下の写真)「Google Compute Engine」として提供される。Cloud TPUでAI処理専用のデータセンタを構築し、Googleはこれを「AI First Datacenter」と呼んでいる。同時に、Googleは「TensorFlow Research Cloud」を発表した。これは研究者向けのクラウドでCloud TPUを1000個連結し、先進AI技術開発のために無償で提供される。

出典: Google

AIをカメラに応用した「Google Lens」

三番目の区分「応用技術」については、GoogleはAIをカメラに応用した「Google Lens」を発表した。これはカメラのレンズをAIで構成するもので、カメラの機能と性能はソフトウェアが決定する。写真撮影するとカメラがAIを使ってイメージを再構築する。夜間撮影では画像にノイズが乗るがAIがこれを補正する (下の写真上段)。シャッターを押すとカメラが自動で複数回 (例えば32回) 露光し、これを重ねてノイズを取り除く。ネット裏からの写真はAIがメッシュを取り除く (下の写真下段)。

出典: Google  

カメラの映像を判定

Google Lensはカメラに映ったオブジェクトを判定する機能がある。花の写真を撮影しGoogle Lens機能をオンにすると花の種類 (Milk and Wine Lily) を特定する (下の写真)。また店舗の写真を撮影するとその名称を認識し関連情報を表示する。カメラがイメージ検索の入力装置となる。Google Goggles(グーグルゴーグル)などで提供された機能であるが、AIを使って機能と精度が強化された。

出典: Google

AIが返信メールを作成

AIはGoogle製品を幅広く支えている。話題の機能が「Smart Reply」でGmailに搭載された。AIが受信したメールの題目と内容を読み最適な返信文を生成する (下の写真)。利用者は提示された三つの返信文から最適なものをクリックするだけで返信できる。Smart Replyが登場して1年以上たつが、今では複雑な内容のメールにも返信文を生成できるようになった。

出典: Google

Street ViewとGoogle Mapsを強化

Street ViewやGoogle MapsでもAIが使われている。Street Viewで撮影したイメージから建物に掲示されている数字をAIが読み番地を特定する。今では数字だけでなく通りの名称をAIが読み場所を把握する。表札が鮮明に写っていなくてもサンプルが四つあれば (下の写真) AIが正確に判定する。この技術をStreet Viewで撮影した800億枚のイメージに適用し位置を把握する。これによりGoogle Mapsの精度が大幅に向上した。利用者から見えないところでAIがサービスを支えている。

出典: Google

AIを医療に適用する

GoogleはAIを医療に適用することを明示した。Googleは既にAIを使ってDiabetic Retinopathy (糖尿病網膜症、下の写真右側、左側は健康な眼底イメージ) を判定するシステムを発表している 。Diabetic Retinopathyとは糖尿病に起因する眼の疾患で失明する可能性が高いとされる。AIが医師より高精度でこの病気を検知することに成功した。AIをメディカルイメージングに活用できることが分かり、GoogleはDeepMindと共に医療分野での研究開発を重点的に進めている。

出典: Google

AIをどう製品に結び付けるのか

Googleはこの他にAIを音声認識に応用している。高度な自然言語処理機能を使いAIスピーカー「Google Home」やAIアシスタント「Google Assistant」を商品化している。Googleは全領域にAIを適用しAI First企業としてその成果をアピールした。ただ、今回の開発者会議では驚くような製品は登場しなかった。世界最高水準のAI技術を持つGoogleであるが、消費者としてはその恩恵を感じにくいのも事実であった。高度なAIをどう製品に結び付けるのかが問われており、これはGoogleだけでなくIT業界が共通に抱えている課題でもある。

Googleは量子技術を五年以内に商用化、量子コンピュータでトップの座を狙う

Googleは五年以内に量子コンピュータ技術を商用化することを明らかにした。Googleが開発している量子コンピュータはアナログ方式で、ここに独自に開発したデジタル技術を組み込み、ハイブリッド方式を構成する。量子コンピュータの本命はデジタル方式であるが登場までには時間がかかる。Googleはこのギャップをハイブリッド方式で埋める戦略を取る。

出典: Erik Lucero  

量子コンピュータ技術を五年以内に商用化

Googleは2017年3月、量子コンピュータ技術を五年以内に商用化することを学術雑誌Natureに寄稿した。併せて量子コンピュータプロセッサを稼働させるハードウェア機構などを公開した。(上の写真、プロセッサは10 millikelvinまで冷却される。Millikelvinは絶対零度(摂氏マイナス273.15度)から0.001度の温度。)

デジタル方式開発は難しい

究極の量子コンピュータは「Digital Quantum Computer」と呼ばれ (デジタル方式と記載)、現行コンピュータのようにデジタルで動く。情報処理はデジタルが当たり前と思われるが量子コンピュータの世界は事情が違う。量子コンピュータがデジタルに稼働するには大きな障壁を超える必要がある。量子コンピュータの開発はエラーとの戦いでもある。量子コンピュータの基本単位Qubit (|0〉と|1〉と両者を同時に示すSuperpositionの状態を取る) は極めて不安定で微小なノイズで状態が変わり (これをDecoherenceと呼ぶ) エラーが起こる。デジタル方式の量子コンピュータを実現するにはシステムをノイズから保護しQubitを安定に保つ高度な技術が必要となる。

Googleはハイブリッド方式を目指す

このためデジタル方式の量子コンピュータを実現するまでには10年を要すといわれている。一方、アナログ方式の量子コンピュータは限られたタスクしか実行できないが、エラーに対する耐性は高い。Googleのアプローチはハイブリッド方式でアナログ方式の量子コンピュータ (Adiabatic Quantum Computer、後述) をデジタルな技術で補完する。Googleはこの技術を五年以内に製品化する。

ハイブリッド方式向けアプリ開発

Googleはハイブリッド方式というユニークな量子コンピュータで何を実現できるのか応用技術についても述べている。開発されたアプリケーションはそのまま事業で活用できる訳ではない。目的は「Heuristic Quantum Algorithms」の開発にある。Heuristicとは新規技法で近似解を開発する手法を指し、限られた機能を持つハイブリッド方式で量子アルゴリズムの開発を進める。本格的な量子コンピュータが登場するとこれら開発されたアルゴリズムが威力を発揮する。(Googleの量子コンピュータ研究はQuantum AI部門で進められる、下の写真。)

出典: Google  

Simulation

アプリケーションでGoogleが注目している分野はSimulation、Optimization、及びSamplingである。Simulationとは量子コンピュータで化学反応や物質素材をモデル化してシミュレーションすることを指す。量子レベルまでのモデリングは現行コンピュータでは不可能で、ここが量子コンピュータが活躍できる分野とされる。量子コンピュータでモデル化することで様々な素材をマシンで精密に仮想実験することができる。飛行機向け化学繊維を強固にしたり、自動車向けには排ガス除去装置(触媒コンバータ)の効率を上げる。また、太陽発電セルの変換効率を上げることなどが期待される。

Optimization

Optimizationとは最適化の問題を量子コンピュータで解くことを指す。適用分野は広く消費者への商品推奨やオンライン広告の応札モデルなどで使われる。また、流通産業では物資の配送ルートの最適化で使われる。アナログ方式の量子コンピュータはOptimization Machineとも呼ばれこの分野がスイートスポットとなる。

Sampling

Samplingとは統計や機械学習で使われる手法で確率分散からデータを取り出す技法となる。Googleは実際に49 Qubit構成の量子コンピュータを使ってSamplingの研究を進めている。Googleは論文で量子コンピュータが現行スパコンでは実行できない問題を解決できたと報告している。これを「Quantum Supremacy」と呼び、量子コンピュータが現行スパコンの機能を本質的に上回ることを指す。

量子コンピュータをクラウドで提供

Googleは量子コンピュータをクラウドで提供する計画を明らかにした。これにより業界を跨って多くの企業が量子コンピュータを使うことができる。量子コンピュータ向けのアルゴリズムやアプリケーションの開発が進むことを目的とする。Googleはハイブリッド方式量子コンピュータに興味を持ってくれる研究者を増やし開発コミュニティの形成を目指している。(量子コンピュータはGoogle Cloud Platform (下の写真) で提供されるのか。)

出典: Google  

ベンチャーキャピタルへの呼びかけ

Googleはベンチャーキャピタルにも働きかけている。ベンチャーキャピタルはデジタル方式の量子コンピュータ技術を中心に投資を進めている。これに対しGoogleはハイブリッド方式への投資の意義を説いている。究極の量子コンピュータはデジタル方式であるが、Googleの技術はそのギャップを埋めるもので、投資対象としても魅力があるとアピールする。Googleの戦略はTeslaのように最初からEVを投入するのではなく、Toyotaのようにハイブリッド方式で新たな市場を形成することを目指している。

Quantum AI Laboratoryを設立

Googleは2009年からカナダのベンチャー企業D-Waveが開発した量子コンピュータを使って研究を進めてきた。2013年、GoogleはNASAと共同で量子コンピュータ研究所「Quantum Artificial Intelligence Lab (QuAIL)」を設立した (下の写真)。量子コンピュータで機械学習や最適化技法を開発することを目的とし、研究所はシリコンバレーのNASA Ames Research Centerに設立された。

出典: NASA  

量子アルゴリズムで宇宙開発

QuAILは2013年5月、量子コンピュータ「D-Wave Two」を導入した。D-WaveのマシンはQuantum Annealing (後述) というアナログ方式の量子コンピュータでOptimizationの研究を中心にプロジェクトが進められた。NASAは量子アルゴリズムを使い宇宙開発におけるOptimizationを現行スパコンより高速に実行することを目的とした。更に、QuAILは2017年3月、最新モデルである「D-Wave 2000Q」を導入することを発表した。

独自の量子コンピュータ開発に着手

GoogleはD-Waveを使って量子コンピュータの研究を進めると同時に、独自の量子コンピュータ技術の開発に乗り出した。2014年9月、UC Santa Barbara (カリフォルニア大学サンタバーバラ校) 教授John MartinisをGoogleに招へいし、量子コンピュータハードウェア研究部門を設立した。Martinis教授は物理学部で量子コンピュータチップを開発しており、それをD-Waveに実装してシステムを構築する。

D-Wave評価は芳しくなかった

その当時、D-Waveが開発した量子コンピュータに関しアカデミアを中心に疑問の声が高まっていた。そもそもD-Waveは本当に量子コンピュータであるのかという本質的な議論が交わされた。D-Wave Twoをベンチマークするとマシンは確かに量子効果を生成しているが、これが性能アップに寄与しているかについて疑問が持たれていた。GoogleはD-Wave Twoを綿密に検証することで問題点や特性を把握し、これが今の量子コンピュータ開発に生かされている。またGoogleはD-Waveを再評価し高いベンチマーク結果などを公表している。

Martinis教授のD-Wave評価

Martinis教授も疑問を抱いていた研究者の一人でD-Wave Twoの評価を実施しレポートを公開した。報告書はD-Wave Twoはラップトップの性能を上回るものではないと結論づけ厳しい評価になっている。その後Martinis教授はGoogleに加わり量子コンピュータ技術の研究を進めることとなった。自身が開発している量子チップをD-Waveに実装しハイブリッド方式で性能改善を目指している。

5つのQubitで構成されるプロセッサ

Martinis教授は量子コンピュータが安定して稼働できる技術をテーマに研究を進めている。Googleに加わる前、Martinisのチームは2014年4月、5つのQubitで構成されるプロセッサを開発しNatureに論文として発表した。これは「Josephson Quantum Processor」と呼ばれる量子コンピュータチップで、サファイア基盤にアルミニウム回路を蒸着した形状となっている。(下の写真、四角い部分がチップで回路の+状の部分がQubit。これは「Xmon Transmon Qubit」と呼ばれる。)

出典: Martinis Group @ University of California, Santa Barbara

エラー補正機能を持つQubit

2015年5月には、Martinis教授を中心とする研究部門は9つのQubitで構成される量子チップを発表した (下の写真、中央部の+状の分部がQubit)。これは超電導量子回路で構成されエラーを補正する機能を持つ。Natureに掲載された論文「State preservation by repetitive error detection in a superconducting quantum circuit」で明らかにした。Qubit開発ではエラーの検知とエラーの補正が極めて難しい。Qubitは不安定で環境変化やノイズでQubitの状態が変わりエラーが発生する。この問題に対処するためQuantum Error Correction (QEC) という機能がプロセッサに実装されエラーを検出しエラー発生を抑えることができるようになった (後述)。

出典: Martinis Group @ University of California, Santa Barbara

アナログ方式をデジタル方式で補完

2016年6月、Googleハードウェア研究部門は「Digitized adiabatic quantum computing with a superconducting circuit」という論文を公開し、アナログ方式の量子コンピュータにデジタル技術を統合しアナログ方式の弱点を補完する方式を発表した。アナログ方式とはAdiabatic Quantum Computing (後述) を指し、デジタル方式とは個々のQubitを操作する技術 (後述) を指す。これによりハイブリッド方式の量子コンピュータを構成し個々のQubitを操作できる。

インテルのビジネスモデルを踏襲

GoogleはD-Waveを使って量子コンピュータの研究を始め基礎技術を学んできた。その後GoogleはMartinis教授を中心に独自の量子チップを開発しD-Waveシステムに搭載して稼働させている。Adiabatic Quantum Computingというアナログ手法を使うものの、デジタル制御できる量子チップを開発し量子コンピュータのハイブリッド方式を提唱している。Googleは独自の手法で量子チップの開発を進めインテルのビジネスモデルを踏襲しているようにも思える。

Googleのチャレンジ

ハイブリッド方式の量子コンピュータは初めての試みで実用に耐えるシステムができるかが問われている。Googleは自社だけでこれを進めるのではなく新興企業の活躍を期待している。Googleは多くの新興企業がハイブリッド方式に興味を示し、ここからイノベーションが生まれることを期待している。研究者の多くはアナログ方式に対して懐疑的であるが、Googleはこれを改良することで道は開けるとしている。壮大な挑戦で果たしてブレークスルーはあるのか関心が集まっている。

IBMがデジタル方式量子コンピュータを発表

Googleが量子コンピュータ技術商用化を発表した直後、IBMはデジタル方式の量子コンピュータ「Q」を数年以内に出荷すると発表した。IBMはこれを汎用量子コンピュータ (Universal Quantum Computer) と位置づけ、マシンをデジタル制御し汎用的にタスクを実行する。当初、このモデルの出荷は10年先と見られていたがIBMはスケジュールを大幅に前倒しした。

Googleが一気にトップの座を狙う

IBMが大きく先行している量子コンピュータ技術であるが、Googleがこれに挑戦する構図となっている。Googleにとって量子コンピュータ開発はゼロからの出発でハンディキャップは余りにも大きい。AIや自動運転車開発でGoogleはゼロから出発したが買収や型破りな技術力で今では世界のトップを走っている。Googleは量子コンピュータ開発でも同じ手法を使い一気にトップの座を狙うものとみられる。量子コンピュータ開発レースが白熱した展開になり技術進化が爆発的に進む勢いとなってきた。

参考情報:Qubitのエラー補正は難しい

Quantum Error Correction (QEC) という機能がプロセッサに実装されエラーを検出しエラー発生を抑えることができるようになった。QECで「Measurement Qubit」 (測定専用Qubit、下の写真で緑色の+状の分部) を導入し「Data Qubit」 (演算用Qubit、下の写真で青色の+状の分部) の状態を把握しエラーを検出する。

出典: Google

Qubitでエラーの検出が難しい理由はQubitを直接観察して状態を把握することができないため。Qubitを計測するとEntanglementとSuperpositionの状態が消失し、|0〉または|1〉のバイナリーな状態に戻ってしまう。このためMartinis教授はMeasurement Qubitという測定専用のQubitを導入した。Measurement QubitとData QubitをEntanglementの状態にして観測する。そうするとMeasurement Qubitの状態を見ればData Qubitを読み出さなくてもその状態が分かる。

参考情報:Adiabatic Quantum Computingとは

Adiabatic Quantum Computingとはアナログ方式の量子コンピュータでエネルギーレベルを変えながら最小値を見つける手法を指す。プログラミングの観点からは初期化されたQubit (Superpositionの状態) のグループに条件を指定し (Qubitのスピン方向と結合状態で定義する)エネルギーレベルを上下する操作を行う。そうするとQubitは初期状態(Superposition)から最終状態 (|0〉または|1〉のバイナリー) に移り、エネルギーの低い状態で安定する。この時のQubitの組み合わせが答えとなる (下の写真、求める解はエネルギー状態 (Hamiltonian) として定義する)。

出典: D-Wave

ただし、通常のコンピュータのように答えは一つ (Deterministic Model) ではなく、多くの答えを示す (Probabilistic Model)。エネルギーレベルを変えて解を見つける方式をAnnealingと呼ぶ。その中でエネルギーレベルの変異を緩やかに行う手法をAdiabaticと呼ぶ。Adiabatic Quantum Computingとはこの手法で解を見つける量子コンピュータを指す。

参考情報:Qubitをデジタル制御する仕組み

Adiabatic Quantum Computingでタスクを解くためにはQubit間での連結が必要となる。しかし、Googleハードウェア研究部門が開発している量子チップは隣り合うQubitと連携ができるだけ。この制約を補完するためにMartinis教授らはQubitをデジタルに制御してQubit間で連携できる範囲を広げた (下の写真、球体がQubitで矢印はスピンの方向と強さを示す)。個々のQubitを磁場で制御して隣り合ったQubitの方向を合わせ (ferromagnetic link、下の写真の赤色+)、また、方向を反対にする(antiferromagnetic link、下の写真の水色+)操作をする。この方式で物理的にQubitの方向やQubit間の繋がり強度を操作できる。この量子チップをD-Waveのマシンに搭載しアナログ方式の弱点を補完するハイブリッド方式を開発する。

出典: Google