月別アーカイブ: 2018年1月

Baiduはオープンソースの手法で自動運転技術を開発しAIとデータを公開、中国で自動運転車開発ラッシュ

Baiduは2018年1月、CESで自動運転技術「Apollo」最新版を公開した。Apolloとはオープンソースの自動運転車開発基盤で、ソフトウェアやデータが公開され、メーカーはこれを使って自由に自動運転車を開発することができる。BaiduはApolloを自動運転車のAndroid位置づけ、中国企業を中心にエコシステムが広がり、Apolloを搭載した自動運転車が続々登場している。

出典: Baidu

ライブデモを実施

BaiduはCES会場で、ラスベガスと中国・北京を結び、Apolloを搭載した自動運転車のデモ走行を披露した。この模様はビデオで公開された。デモ会場は北京にあるBaidu本社で、夜明け前の暗闇の中を自動運転車が隊列走行した (上の写真)。Apolloは異なる車種のクルマに搭載され、構内を自動運転で走行した。先頭のクルマはFord製の高級車種Lincoln MKZで、Apollo自動運転技術を搭載し、運転席にはドライバーの姿はなく、クルマが自動で走行した。

AI Cityを開発

Baiduは同時に、「AI City」を走行する自動運転車のデモビデオを公開した。Baiduは地方政府と共同でXiongan (河北省・雄安) に人工知能都市AI Cityを開発している。市の一部を特区 (New Area) として、次世代スマートシティーのプロトタイプを構築する。具体的には、この街をAIを活用した商業地域とし、自動運転技術 (Intelligent Transportation)、対話型AI (Conversational AI)、クラウド (Cloud Computing) を導入し、インテリジェントな近未来都市を構築する。

AI Cityで自動運転走行デモ

BaiduはAI CityでApolloを搭載した自動運転車のデモ走行を実施した。Apolloを搭載した異なるモデルの車両が市内の公道を走行した。クルマは対面通行の道路などを安全に自動走行した (下の写真)。ここは中央分離帯が無く、道幅は狭く、高度な技術が必要となる。Baiduは中国におけるGoogleとして認識されているだけでなく、今では自動運転のリーダーとして技術開発を主導する。BaiduがAI Cityで自動運転のデモを実施した最初の企業で、その実力の高さを内外に示した形となった。

出典: Baidu

交差点の左折や問題への対応

クルマは信号機のある複雑な交差点を左折できることも示された。クルマのセンサーは信号機や歩行者を正しく認識し、安全な走行経路を決定する。また、交差点でUターンをすることもできる。更に、対向車がセンターラインを越えて車線に入ってきても、これを認識して安全に停止した (下の写真)。

出典: Baidu

ディスプレイ

自動運転車のダッシュボードにはディスプレイが搭載され運行状態を表示する (下の写真)。自動運転機能を可視化してディスプレイに表示することで、アルゴリズムが何を見て、どのように判断したかが分かる。具体的には、 Apollo API (自動運転ライブラリ) の「Perception」という機能は、クルマ周囲のオブジェクトを把握し、その種別を特定する (下の写真、緑色の箱)。また、「Planning」という機能は、把握したオブジェクトを考慮して、安全な走行ルートを算定する (下の写真、クルマの前に示された水色の線)。アルゴリズムの演算結果をディスプレイに表示することでクルマの挙動を理解できる。更に、クルマの走行データを記録する機能もあり、アルゴリズムのデバッグなどに役立てる。

出典: Baidu

ハードウェア

Apolloはソフトウェアとハードウェアから構成され、通常のクルマにこれらを搭載して自動運転車とする。センサーはLidar (レーザーセンサー)、カメラ、レーダーが使われ、これら機器を車両に搭載する (下の写真)。これが標準装備で、三種類のセンサーをAIが解析し (Sensor Fusionと呼ばれる)、自動運転を実現する。運転席には自動運転を解除するための非常ボタンが設置されている。Apollo自動運転車は北京の公道で試験走行を進めている。また、Baidu研究所があるカリフォルニア州でも走行試験が実施されている。

出典: Baidu

オープンソースの手法

Baiduは自社単独で自動運転技術を開発するのではなく、オープンソースの手法で技術を公開し、パートナー企業と供に製品を開発している。既に多くの企業がApolloプロジェクトに参加している。その数は90社にのぼり、中国企業が65社と大半を占めている。海外メーカーではFordやDaimlerやHyundaiが加わっている。海外サプライヤーではBosch、Continental、Delphiなどが、半導体メーカーではNvidia、Intel、NXPなどが参加している。日本からはルネサスエレクトロニクスとパイオニアが参加している。中国企業が中心であるものの、海外から大手企業が参加しており、その関心の高さが窺える。

Microsoftが参加

IT企業からはMicrosoftがパートナーに加わっている。MicrosoftはクラウドサービスAzureを提供し、自動運転車のシミュレータ「Dreamview」(下の写真) の運用を支える。自動運転車が商品として販売され、市街地で運行を始めると、Microsoftはクルマとクラウドを結ぶコネクティッドカー機能を提供することを計画。現在、Apolloは中国で展開されているが、Microsoftがプロジェクトを米国や欧州で展開することを手助けする計画もある。

出典: Baidu

オープンソースの手法は上手くいくのか

Apolloソフトウェアはオープンソースの手法で開発されている。開発されたソフトウェアはGitHubに公開され、誰でも自由に利用して自動運転車を開発できる。同時に、参加企業は自社で開発したソフトウェアをApolloにフィードバックすることもできる。このプロセスを繰り返すことでApolloの完成度が向上するというシナリオを描いている。

Apolloの機能は未成熟

Apolloの機能はまだ限定的で、複雑な市街地を走行できる訳ではない。Apolloが提供している機能は、幹線道路での直進、左折・右折、Uターンなど基本操作に限られる。Apolloの機能はまだまだ未完成で、今すぐに無人タクシーとして使える訳ではない。つまり、Waymoなど先行企業はApolloに加わるインセンティブはない。

出典: Baidu

自動運転技術はコモディティに向かう

しかし、新興企業にとってみると、Apolloに参加することで、短期間で自動運転車を商品化でき、新事業創設のチャンスが広がる。Fordなど大手メーカーは自社開発だけでなく、Apolloで逆転を狙うという目論みがあるのかもしれない。更に、自動運転技術は基本ソフトのように基礎技術となり、共通に利用できる方向に進むということを示唆している。誰でも手軽に自動運転車を開発できれば、差別化の要因をどこに求めるのか、新しい課題も見えてくる。

Androidモデルを踏襲

参加企業の多くは中国の自動車メーカーであり、Apolloを搭載した自動運転車が続々と開発されている (上の写真)。自動車だけでなく、Apolloを搭載したバスや道路掃除車両や配送ロボットなどが登場している。この状態はGoogleがスマホ基本ソフトAndroidを買収した2005年頃に似ている。当時、Apple iOSに比べAndroidは未成熟な基本ソフトであったが、Googleがオープンソースの手法で開発し、Androidは急速に完成度を増した。Androidが世界を席巻したように、Apolloもこの流れに乗ることができるのか、世界から注目を集めている。

レジ無し店舗「Amazon Go」の運用が始まる、AIが売り上げを把握する仕組みとは

Amazonは2018年1月、レジ無し店舗「Amazon Go」の運用を開始した (下の写真)。一般顧客がAmazon Goで買い物をできるようになった。店舗内で顧客が取り上げた商品はAIが自動で認識し、専用アプリに課金される。店舗にはレジはなく、顧客は取り上げた商品を持ってそのまま店を出ることができる。謎が多いAmazon Goであるが、ニュース記事やツイッター記事を読むとその概要が見えてきた。

出典: Amazon

AIが購入を判断

Amazon Goは専用アプリで利用する。店舗に入る際にアプリを起動し、表示されたQRコードをリーダーにかざすと、ゲートのバーが開く。店舗内では、商品を手に取り、買いたいものを自分のバッグに入れる。商品点数が少なければ手で持つこともできる。AIは顧客が商品を取り上げた時点で購買したと判定する。

AIは返品も認識

しかし、気が変わり顧客が商品を棚に戻すと、AIは返品されたと認識する。この時点で、購買したアイテムからこの商品が取り除かれる。店舗にはレジはなく、買い物が終わると顧客はそのまま店を出る。AIは顧客が購買したアイテムを把握しており、専用アプリに課金される。レシートはアプリに示され、顧客は購入した商品を確認できる。

システム概要

どういう手法でこれを判定するのか気になるが、Amazonはその技法については公開していない。Computer Vision (画像解析)とDeep Learning Algorithm (深層学習アルゴリズム) とSensor Fusion (異なる種類のセンサーを統合) を利用していると述べるに留まっている。

必要な機能

無人レジでは、顧客を特定する技術と、取り上げられた商品を特定する技術が必要となる。前者はComputer Visionで消費者を把握し追跡する。後者もComputer Visionで商品を特定する。更に、商品棚にはセンサー (重量計) が設置され、特定の商品が取り上げられたことを把握する。

顧客を特定する技術

前述の通り、店舗にはゲートが設置されており (下の写真)、ここでアプリのQRコードをかざすと、システムは利用者を把握する。天井に設置されているカメラが利用者を認識し、位置を特定する。これで顧客情報とその姿を紐づけることができる。店舗内で利用者が移動すると、天井に設置されたカメラがそれを追跡する。AIは利用者の顔認証は実施しない。顧客の姿の特徴量を把握し、これをキーに顧客をトラックする。

出典: Seattle Times

天井に設置されたカメラ

天井には数多くのカメラが設置されている (下の写真)。カメラはボックスに装着されている。このボックスはプロセッサーで、カメラが捉えたイメージの基礎的なAI解析を実行する。具体的には、人の存在の認識、利用者の特定と追跡、利用者の動作の意味を把握する。利用者が移動すると、別のカメラがこれをフォローする。更に、カメラは棚の商品を認識し、取り上げられた商品の名前を特定する。

出典: Seattle Times

商品棚とセンサー

商品棚 (下の写真) にはカメラと重量計が搭載されている。ただし、この写真からそれらを確認することはできない。消費者が取り上げた商品を商品棚のカメラが認識する。重量計が棚の重さを計測し、重量が減ると商品が取り上げられたと認識する。(システムは各商品の重さを認識しており、重量計は取り上げられた商品名を特定する機能があるとの意見もある。)

出典: Seattle Times

売り上げの特定

これら一連のデータはサーバに送信され、Deep Learning Algorithmが売り上げを推定する。そのロジックは次の通り。天井のカメラは利用者の位置を追跡し、特定の商品棚の前にいることを認識し、その挙動 (手を伸ばすなど) を捉える。その棚の商品が取り上げられたことをカメラと重量計で認識する。これら一連の情報をDeep Learning Algorithmで解析し、特定の消費者が特定の商品を取り上げたことを判定する。

AIが幅広いケースを学習

店舗での買い物は様々な状況が発生する。システムはDeep Learningの手法でこれらを学習していく必要がある。顧客は商品をバッグに入れるが、途中で気が変わり、それを別の棚に返品すことが多々ある。顧客は商品をバッグに入れるのではなく同伴している子供に手渡すケースもある (下の写真、右側)。一方、顧客が商品を取り上げて、それを別の顧客に手渡すケースもある (下の写真、左側、現在このケースは禁止されている)。アルゴリズムはこれらの事態を把握し、正しく会計処理ができるよう教育される。

出典: VentureClef

アルゴリズム教育プロセス

このため、Deep Learning Algorithmを教育し、顧客を認識する精度を高め、消費者の行動の意味を学習するプロセスが成否のカギを握る。教育を通じ、アルゴリズムは顧客が商品を手に取る、商品をバッグに入れる、商品を棚に戻すなどの行動の意味を高精度で推定できるようになる。この教育プロセスを実施するために、公開に先立ち、Amazon GoはAmazon社員を使ったトライアルが実施された。

開店が遅れた理由

Amazon Goは2016年12月に発表され、2017年初頭の開店を目指していた。しかし、公開は2018年1月と大きくずれ込んだ。開発が遅れた理由は公表されていないが、店舗が込み合っている時は、AIは売り上げを正しく判定できないためとされる。このためにカメラの台数を増やし判定精度を向上させた。Amazon Goの床面積は1,800平方フィート (167平方メートル) でここに100台ほどのカメラが設置されている。三畳間に一台のカメラが設置されている計算で、Amazon Goは多数のカメラでもれなく顧客をモニターする構造となる。

認識精度は

気になるAmazon Goの認識精度であるが、開店して一週間が経過するが、特に大きな問題は報告されていない。ただ、CNBCのレポーターが買い物をしたとき、ある商品 (Siggi’s Yogurt) が課金されなかったと報じている (下の写真)。一方、あるレポーターは店員さんの許可を得て、商品を”万引き”したが、店舗を出るとアプリに課金されていたと報告している。判定精度は実用に耐えるレベルに達していると思われる。また、このシステムは万引き防止にも役立つことも分かってきた。

出典: Deirdre Bosa

レジ無し店舗展開計画

AmazonはAmazon Goの展開計画については沈黙を守っている。ただ、開店したAmazon Goの品ぞろえを見ると、コンビニ形式の店舗となっている。食料品や日用品を中心に品ぞろえされ、顧客は少数点数を購買するパターンが目立つ。Amazon Goはオフィス街のコンビニとして運営されるとの噂もある。時間に追われている社員が、昼休みにサンドイッチと飲み物を手に取り、急いで店を出るケースなどが想定されている。Amazon Goではレジ待ちはなく、ランチ時間がちょっとリッチになり、社員の味方になるかもしれない。

GoogleはAIがAIを生成するクラウドを公開、業務に最適なニューラルネットワークを数分で開発できる!

GoogleはAIがAIを生成する技術の開発を急いでいる。この技法は「AutoML」と呼ばれ、AIがニューラルネットワークを自動で生成する。アルゴリズムが別のアルゴリズムを生成する技法で、AI基礎研究で重要なテーマと位置づけている。GoogleはAutoMLを使って高度な機械学習アルゴリズムを生成し、社内サービスで利用してきた。今般、Googleはこの技法をクラウドサービス「Cloud AutoML」として一般に公開した (下の写真)。

出典: Google

Cloud AutoMLとは

Cloud AutoMLは機械学習クラウドサービスで、利用者の研究や業務に最適化したニューラルネットワークを生成する。現在は、既存のニューラルネットワークを使ってAIシステムを構築している。これらは”汎用AI”で幅広い機能を持つが、高度な判定能力が要求される特定業務では使えない。このため”専用AI”を開発する必要があるが、これに応えることができるAI研究者の数は限られている。Cloud AutoMLはAI研究者に代わり”専用AI”を瞬時に開発する。

Googleの汎用AIクラウド

AmazonやMicrosoftやGoogleは汎用AIをクラウドで提供している。Googleはこれを「Cloud ML Engine」として提供している。多くの機能が揃っているが、画像認識処理を実行するには「Cloud Vision API」を利用する。これは教育済みの機械学習エンジンで、イメージを入力するとアルゴリズムがオブジェクトの名前を判定する。又は、エンジニアが公開されているニューラルネットワーク (Google Inceptionなど) を使って、機械学習アルゴリズムを開発することもできる。

Cloud Vision APIを使うと

Cloud Vision APIを使うと簡単に写真の分類ができる。イメージを入力するとシステムはその属性を出力する。例えば、空に浮かんだ雲の写真を入力すると、システムは解析結果として「Sky」や「Cloud」と回答する (下の写真)。その他に、写真に写っている顔を把握し、その表情を分類する機能もある。

出典: VentureClef

気象専門家は使えない

しかし、気象専門家がイメージを科学的に解析するには、Cloud Vision APIの判定機能は十分ではない。上述のケースでは、Cloud Vision APIはイメージを「Sky」や「Cloud」と判定するが、雲の種類を特定することができない。雲の種類である「Cumulus humilis (巻積雲)」と判別する機能はない。

雲の種類を判定できる機械学習アルゴリズム

このため雲の種類を判別できる機械学習アルゴリズムを開発することが求められる。この需要に応えてCloud AutoMLが登場した。Cloud AutoMLが雲の種類を判定できる機械学習アルゴリズムを自動で生成する。Cloud AutoMLは、雲の種類の他に、ファッション区分や動物種別の判定など、特殊な判定が求められる機械学習アルゴリズムを自動で生成する機能を持つ。

Cloud AutoML利用プロセス

Cloud AutoMLでアルゴリズムを生成するためには写真データセットを準備する必要がある。これはタグ付き (又はタグ無し) の写真アルバムで、上述のケースでは雲の写真とその種別を紐づけたセットを準備する。この写真データセットをクラウドにアップロードすると、Cloud AutoMLが雲の種類を判別できる機械学習アルゴリズムを自動で生成する。

データ入力と教育

具体的にはCloud AutoMLのインターフェイスに沿ってこれらの操作を実行する。まず、「Label」のページでタグ付きの写真データセットをアップロードする。ここでは種別ごとの雲の写真をアップロードする。(下の写真、「Cumulonimbus (積乱雲)」というタグがついている雲の写真をアップロード)。 AutoMLは自動で機械学習アルゴリズムを生成し、「Train」というページで、アップロードされた写真を使ってアルゴリズムを教育し最適化する。

出典: Google

アルゴリズム評価と運用

次に、「Evaluate」というページで、教育された機械学習アルゴリズムの認識精度を評価する。アルゴリズムの認識率や誤認率を確認する。最後に、「Predict」というページで、完成したアルゴリズムに写真を入力し、雲の種類を判定する処理を実施する。下のケースはその事例で、完成したアルゴリズムは入力された写真を解析し、「Cirrus (巻雲)」と正しく判定している。汎用AIは「Cloud」としか判定できないが、完成した専用AIは雲の種類まで判定できる。

出典: Google  

イメージ認識機能

機械学習アルゴリズムは幅広いが、Cloud AutoMLはその中でイメージ認識 (Image Recognition) 機能を提供している。Googleによると、生成したアルゴリズムの認識率は汎用的なニューラルネットワークより精度が高く、誤認識率が低いとしている。また、ニューラルネットワーク開発期間を大幅に短縮できるのも強みである。パイロットモデルであれば数分で、プロダクションモデルであれば1日で開発できる。

応用事例:ファッションを分類する

Cloud AutoMLを業務に応用した事例が公開されている。ファッションブランドUrban Outfittersは商品にタグ付けするプロセスをCloud AutoMLで自動化した。Urban Outfitters は、商品に付加されたタグをキーに、消費者に関連商品を推奨する。また、商品検索や商品フィルタリングでもタグが使われる。Cloud AutoMLは商品イメージを解析し商品の特徴量を抽出する。例えば、洋服を分類する際に胸元に着目すると、Cloud AutoMLは商品を「V-Neck」、「Scoop」、「Crew」などと判定する。アルゴリズムはデザインパターンやネックラインなどをキーにタグを生成する。(下の写真、ウェブサイトを「V-Neck」で検索した結果。)

出典: Urban Outfitters

応用事例:動物の種別を特定

Zoological Society of Londonは国際的な環境保護団体で動物の生態を守る活動を展開している。Zoological Society of Londonは動物の生態を理解するために、生息地にカメラを設置し動物の行動を観察している。写真に写っているイメージから動物の種類をマニュアルで判定してきたが、このプロセスをAutoMLで自動化した。汎用アルゴリズムでは動物の種別を正確に判定できないが、Cloud AutoMLでこの判定ができるアルゴリズムを開発。これにより、運用コストが大きく低下し、この保護活動を大規模に展開する計画である。

ニューラルネットワーク生成は難しい

ニューラルネットワークで画像認識や音声認識の精度が大きく改善されているがネットワーク生成には特別の技量を要する。ニューラルネットワークの生成と教育では、これを支える数学の知識と、ネットワークを生成するためのプログラミング技法が必要になる。これができるAI研究者の数は全世界で数千人程度と言われている。このため、企業や組織が高度なニューラルネットワークを開発することは事実上できなかった。

ロードマップ

Cloud AutoMLの登場でこれが可能となり画期的なAIが開発される切っ掛けとなる。現在は機能が画像認識 (Convolutional Network) に限られているが、今後は音声認識 (Recurrent Neural Network) も登場すると期待される。 業務に特化したAIアルゴリズム開発が今年の重要な研究テーマとなっている。AI開発が容易になるだけでなく、この研究がAIのブラックボックスを解明する手掛かりになると期待されている。

———————————————————–

AutoMLの仕組み

GoogleはAutoMLの技法について論文で公開してきた。AutoMLはReinforcement Learning (強化学習) の手法とTransfer Learning (知識移植) の手法を使ってニューラルネットワークを生成する。前者については「Neural Architecture Search with Reinforcement Learning」で、後者については「Learning Transferable Architectures for Scalable Image Recognition」でその手法を明らかにしている。

Reinforcement Learningの手法

Recurrent Neural Network (時間依存の処理をするネット) が「Controller」となり「Child Network」を生成する。Child Networkが生成するニューラルネットワークで、ここではConvolutional Network (画像認識ネット) を対象とする。ControllerはあるPolicyに従ってChild Networkを生成し、これを教育してイメージ判定精度を得る。イメージ判定精度をRewardとしてPolicyのGradient (勾配) を計算。このプロセスを繰り返し、ControllerはRewardを最大にする方向に進み、精度の高いChild Networkの生成方法を学習する。

Transfer Learningの手法

しかし、Reinforcement Learningの手法は小さな写真 (CIFAR-10) では上手くいくが、大きな写真 (ImageNet) に適用すると、計算時間が極めて長くなる。このためTransfer Learningという手法が用いられた。これは学習したニューラルネットワークを流用する技法である。具体的には、上述のReinforcement Learningの手法で生成したConvolutional Networkの一部を流用し、それを重ね合わせて新しいConvolutional Networkを生成する。これにより、大きな写真も処理することができる。Cloud AutoMLにはこれらの技法が使われている。

AIがAIを開発する研究が急進!ニューラルネットワークを生成するアルゴリズムをスパコンで稼働させる

今年のAI研究の重要テーマは高度なニューラルネットワークの開発で、多くの研究者が理想のアーキテクチャーを模索している。米国国立研究所はこのプロセスをAIで実施し、大きな成果を上げた。AIが高精度なニューラルネットワークを生成し、これを物理学の研究に応用する。ニューラルネットワーク生成には大規模な演算が必要となり、スーパーコンピューターがなくては研究が進まない。GoogleもAIがAIを生成する研究を急いでいる。これはAutoMLと呼ばれ、AIが特定処理に最適化されたニューラルネットワークを生成する。今年は官民ともAIアーキテクチャー研究がホットなテーマになる。

出典: Oak Ridge National Laboratory

AIスパコンを運用

オークリッジ国立研究所 (Oak Ridge National Laboratory) は米国エネルギー省配下の機関で、世界最大クラスのスパコン「Titan」を運用している (上の写真)。TitanはCray社が開発したスパコンで、18,688のノードをから構成される並列マシンである。各ノードはCPU (AMD Opteron) とGPU (NVIDIA Kepler) を搭載し、世界最大規模のAIスパコンである。Titanで高度なニューラルネットワーク (Neural Network) が開発され、これを使って物質科学や素粒子物理学の研究が進められている。

商用のニューラルネットワークは使えない

ニューラルネットワークは画像認識や音声認識に最適なアルゴリズムで社会に幅広く浸透している。オークリッジ国立研究所の研究者もこのネットワークを使い科学の謎の解明を目指してきた。しかし、商用のニューラルネットワークを基礎研究に流用しても大きな成果は得られない。この理由は科学研究で扱うデータの特殊性による。また、教育に使えるデータの数が限られていることも大きな要因である。このため、科学研究向けの専用ニューラルネットワークを開発する必要に迫られた。

ハイパーパラメータを最適化する

このため研究者は科学分野向けに最適なニューラルネットワークの開発を進めてきた。特定のデータセットに対して、最適なニューラルネットワークが存在するという前提で、そのアーキテクチャを探求してきた。この研究は「Hyper-Parameter」を最適化するという問題に帰着する。Hyper-Parameterとはニューラルネットワークの基本モデルを指し、各層の種類、それらの順番、ネットワークの段数などで、これらを組み合わせネットワークを最適化する。

研究者が手作業ですすめる

Hyper-Parameterの最適化は、研究者が既存のDeep Learningソフトウェア (Caffe、Torch、Theanoなど) を使い、手作業で実施される。具体的には、標準ソフトウェアを改造し、各層の種類や順番、ネットワーク段数など、ネットワークのトポロジーを決める。次に、生成したニューラルネットワークを教育し、その性能を検証する。このプロセスを何回も繰り返し最適なニューラルネットワークの形を得る。ネットワークの形態を決める常套手段は無く、研究者が経験と勘を頼りに作業を進める。このため、新しいニューラルネットワークを生成するには数か月かかるとされる。

AIがAIを開発する

オークリッジ国立研究所はこのプロセスをAIで構築し、これをスパコンで実行することで大きな成果を上げた。研究者が手作業でネットワークを生成するのではなく、特定の研究に最適化されたニューラルネットワークをAIが生成する。AIが研究の目的に合ったAIを開発する。これにより、ニューラルネットワークを数時間で生成することに成功し、ニュートリノ (Neutrino) 研究に大きく貢献している。

出典: Oak Ridge National Laboratory

生物が進化する方式を模したアルゴリズム

ニューラルネットワークを生成するAIはMENNDL (Multinode Evolutionary Neural Networks for Deep Learning) と呼ばれている。MENNDLは、最初に、特定データセット (例えばニュートリノ実験データ) の処理に特化したニューラルネットワークを生成する。次に、MENNDLは生成したニューラルネットワークを教育し、その性能を評価する。これに基づき、MENNDLはネットワーク構造を進化させ (上の写真) 性能を向上させる。このプロセスを繰り返し実行し、高度なニューラルネットワークを生成する。この手法は生物のDNAが配合や変異を繰り返し進化する方式を模しており「Evolutionary Algorithm」と呼ばれる。

システム構成

MENDDLはTitanのノードを使って実行される。Master Nodeで進化のプロセスを実行し、生成されたネットワークはWorker Nodeで実行される (下の写真)。Worker Nodeは生成されたネットワークを教育し、その性能を査定する。ネットワークとしてはCaffeを使用し、Worker Nodeで大規模並列に実行する。Master NodeとWorker Node間の通信はMessage Passing Interfaceというプロトコールが使われる。

出典: Oak Ridge National Laboratory  

ミトコンドリアを探す

MENDDLで生成されたニューラルネットワークは医療分野で使われている。St. Jude Children’s Research Hospitalは3D電子顕微鏡 (3D Electron Microscope) で撮影したイメージからミトコンドリア (Mitochondria) を特定するニューラルネットワークを生成した。ミトコンドリアは目立つものの、存在場所が様々で、形や大きさが異なり人間が特定するのは難しい。このためMENDDLを使いミトコンドリアを特定するための専用ニューラルネットワークを生成した。

ニュートリノの相互作用を特定

米国フェルミ研究所 (Fermi National Accelerator Laboratory) はMENDDLを使いニュートリノ検知のための専用ニューラルネットワークを生成した。ニュートリノは素粒子の中でフェルミ粒子 (Fermion) に属し、質量は極めて小さく、他の粒子との相互作用が殆どなく、透過性が高く、その検知は非常に難しい。ニュートリノ研究は初期宇宙の解明や物質の仕組みの解明につながるとされ、各国で研究が進んでいる。(日本のスーパーカミオカンデは宇宙から飛来するニュートリノを観測する施設として世界的に有名。)

出典: Fermi National Accelerator Laboratory

ニュートリノ観測専用ニューラルネットワーク

米国でフェルミ研究所が観測装置 (上の写真) を開発し、ニュートリノを大量に生成し、その相互作用を探求している。ニューラルネットワークはニュートリノ検知に特化した構造となっている。ネットワークは観測した写真を解析し、ニュートリノが装置の中のどこで相互作用を起こしたかを正確に特定する。写真には他の粒子によりる相互作用が数多く記録されるため、汎用的なニューラルネットワークではニュートリノを選び出すことが難しい。これにより稀にしか起こらないニュートリノの相互作用を高精度で特定できることとなった。

AIスパコンが研究を支える

MENDDLは50万種類のニューラルネットワークを生成し、それらを教育し性能を評価した。教育データとしてニュートリノ相互作用を記録したイメージ80万枚が使われた。この中から最も判定精度の高いニューラルネットワークが選ばれ実験で使われている。これら一連のプロセスがTitanの18,688個のノードで高並列に実行された。AIスパコンの導入によりこの研究が可能となった。

Googleでも研究が進む

GoogleもAIがAIを生成する技術の開発を急いでいる。これは「AutoML」と呼ばれ、ニューラルネットワークを自動生成する技法である。アルゴリズムが別のアルゴリズムを生成する技法で、AI基礎研究で重要なテーマと位置づけている。GoogleはAutoMLを使って高度なMachine Learningアルゴリズムを生成し社内のサービスで利用してきた。今般、Googleはこのアルゴリズムを公開し「Cloud AutoML」として一般に提供を始めた。Cloud AutoMLは利用者の研究や業務に最適化されたアルゴリズムを生成する。アプリケーションに最適なAIアルゴリズム開発が今年の重要な研究テーマとなる。ひいては、この研究がAIのブラックボックスを解明することにもつながると期待されている。