カテゴリー別アーカイブ: Google

Google自動運転技術が格段に進化、高機能Lidarを開発し自動車部品メーカーを脅かす

Alphabetの自動運転車開発会社Waymoは独自でLidar (レーザーセンサー) 技術の開発を進め、機能が大幅に向上したと発表した。また、WaymoはUberの子会社OttoがLidar技術を盗用したとして提訴した。自動運転車開発競争の中心はLidarで、Waymoの特許を参考に最新技術をレビューする。

出典: Waymo  

Automobili-Dカンファレンス

Waymo最高経営責任者John Krafcikは2017年1月、デトロイトで開催されたNAIAS Automobili-D カンファレンスで最新の自動運転技術を発表した。この模様はビデオで公開された。WaymoはChrysler Pacifica Hybridベースの自動運転車 (上の写真) を開発しているが、KrafcikはLidarなどのセンサーを中心に最新技術を説明した。

クライスラーと共同開発

WaymoとFiat Chrysler Automobilesは2016年5月、自動運転車を共同開発することで合意し、100台の自動運転ミニバン「Waymo Self-Driving Pacifica」を製造している。ミニバンはWaymoが開発したハードウェア (Hardware Suit) を搭載し、最高レベルの自動運転車として位置づけられる。

Lidarを自社開発する

初期のGoogle自動運転車は他社製センサーやプロセッサを利用していた。LidarはVelodyne社製のハイエンドモデル「HDL-64E」を採用した (下の写真、屋根の上の円筒状装置)。しかし、この製品は機能的な制約があり、価格は75,000ドルと高価で車両価格を上回った。このため、WaymoはLidarを含むセンサー群を自社で開発することとした。

GoogleのAIとWaymoのセンサーを統合

センサーは自動運転車の頭脳であるAIと密接に統合された。センサーを構成する各コンポーネントがAIにより制御され、単一のモジュールのように機能する。Googleがスマートフォン「Pixel」でAndroid OSだけでなくデバイスも自社開発しているように、Waymoもソフトウェアだけでなくハードウェアも開発する方針とした。Googleが得意とするAIとWaymoの高精度センサーが結びつき自動運転技術が一気に進化した。

出典: VentureClef

センサーの種類と搭載位置

WaymoのセンサーはLidar、Vision System、Radarから構成される (下の写真)。ミニバンの屋根には小型ドームが搭載され、ここにLidar、Vision System、Radarが格納される。クルマの四隅にはRadarが設置される。別のタイプのLidarは前後と前方左右四か所に搭載される。

出典: Waymo  

Lidarがクルマの眼となる

センサー群の中で中心となるのがLidarだ。Lidarはレーザースキャナーでクルマ周囲のオブジェクトを3Dで把握する。つまり、Lidarは歩行者と人の写真を区別できる。更に、Lidarは静止しているオブジェクトを把握し、距離を精密に測定する。クルマは複雑な市街地を走行し、様々なオブジェクトを検知する必要がある。WaymoのLidarはブラインドスポットが無く、クルマ周囲の歩行者全員を検知できる。また、解像度が高く、歩行者がどちらを向いているかも判定できる。これにより歩行者の行動予測精度が大幅に向上した。

出典: Waymo  

Short Range Lidar

Waymoは三種類のLidarを搭載している。一つは「Short Range Lidar」でクルマの前後左右四か所に設置され、周囲のオブジェクトを認識する (上の写真、後部バンパーと右側前方の円筒状の装置)。クルマのすぐ近くにいる小さな子供などを把握する。解像度は高く、自転車に乗っている人のハンドシグナルを読み取ることができる。

Long Range Lidar

もう一つは「Long Range Lidar」 (上の写真、屋根の上のドームの内部に搭載) で遠方にあるオブジェクトにズームインすることができる。フットボール二面先のヘルメットを識別できる精度となる。これ以上の説明はないがWaymoが申請した特許 (下の写真、資料の一部) を読むとLong Range Lidarはユニークな構造となっている。

特許資料によるLong Range Lidarの構造

Long Range Lidarは通常のLidarと可変式のLidarの二つのモジュールから構成される。通常のLidarは固定式で設定された範囲をスキャンする。可変式のLidarはFOV (視野、レーザービームがスキャンする角度) を変えることができる。ズームレンズで特定部分をクローズアップするように、可変式Lidarは発光するレーザービームを狭い範囲に絞り込み、遠方の小さなオブジェクトも判定できるようにする。ただ、この特許が実際の製品にどのように実装されているかは、Waymoの説明を待つ必要がある。

出典: Waymo  

Vision Systemはカメラの集合体

Waymoは独自のVision Systemを開発した (一つ前の写真、屋根の上のドームに搭載される)。Vision Systemとはダイナミックレンジの広いカメラの集合体で、8つのVision Moduleから構成され、クルマの周囲360度をカバーする。信号機や道路標識を読むために使われる。Vision Moduleは複数の高精度センサーから成り、ロードコーンのような小さなオブジェクトを遠方から検知できる。

暗いところから明るいところまで見える

Vision Systemはダイナミックレンジが広く、暗いところから明るいところまでイメージを認識できる。暗がりの駐車場から直射日光を受けるまぶしい場面まで幅広く使える。通常のカメラは人間と同じように光の状態により見えにくい状態が発生する。Vision Systemはこの問題を解決するために開発され、太陽光が直接カメラに入る状態でもオブジェクトを把握できる。

Radarを大幅に改良

Waymoは20年にわたり技術進化がないRadarを大幅に改良した。通常のRadarは前方の狭い範囲をカバーするが、WaymoのRadarはクルマの周囲360度を連続してカバーする (一つ前の写真、前方側面と屋根後部のウイング状のデバイス)。雨や霧や雪の時に、Radarは他のセンサーを補完する。また、通常のRadarは車両の動きを把握するために使われるが、WaymoのRadarは車両以外に歩行者や自転車も検知する。移動速度が遅いオブジェクトについても高精度で検知できる。

走行距離とVirtual Miles

Waymoの自動運転車は累積で250万マイル走行した。市街地を中心に走行試験を重ねており、今年5月には300万マイルに達する。路上試験に加えWaymoはシミュレータで走行試験を重ね、2016年だけで10億マイルを走行した。シミュレータでは様々な走行状態を再現できる。ここでクルマにとって難しい状態や稀にしか発生しない事態をシミュレータで生成する。シミュレータでの走行がソフトウェアの改良に寄与している。

安全性が格段に向上

自動運転車の性能はどれだけの距離をドライバーの関与なしに自動走行できたかで決まる。試験走行中にドライバーが自動モードを解除することをDisengageと呼ぶ。Disengageの回数が少ないほど安全性が高いという関係になり、1000マイル走行して何回Disengageが発生したかという指標で評価される。2015年は0.80回で2016年は0.20回と大幅に改善しており、安全性が順調に改善されているのが分かる。ただ、2016年の数字は5000マイルごとに問題が発生しているとも解釈でき、製品として出荷するには更なる改良が求められる。

Lidarの価格が劇的に下がる

WaymoはLidarのコストを大幅に下げることに成功したと発表した。前述Velodyne社製のLidarより90%安い価格で提供する。Velodyne製Lidarの価格が75,000ドルであるが、Waymo製Lidarの価格は7,500ドルと大幅に安くなる。これにより自動運転車開発でセンサーの選択肢が大きく変わる。Lidar価格が高いためカメラを代用している企業も少なくない。Lidarの価格破壊で自動運転技術方式が大きく変わる可能性もある。

WaymoがUberを提訴

Waymoは2017年2月、Ottoとその親会社であるUberに対して訴訟を起こした。Waymoは同社が開発したLidar技術をOttoが不正に入手したとしている。Uberは昨年、誕生して間もないOttoを6億8千万ドルで買収し、創設者であるAnthony Levandowskiを自動運転開発部門責任者に任命した。UberがOttoを買収した理由はLidar技術にあるといわれていた。LevandowskiはGoogle自動運転車開発のコアメンバーであった。Uberはこれに対しWaymoの訴訟は開発を遅らせるための手段であると述べ、全面的に対決する姿勢を見せている。自動運転車でカギを握る技術はLidarであり、訴訟の進展が市場形勢に大きな影響を及ぼす。

脳科学でサイバーセキュリティを強化、Googleは研究成果をChromeに応用

企業や政府機関はサイバー攻撃に対し多大なコストと時間をかけてセキュリティシステムを構築するが、社員や職員は不審な添付ファイルを開きマルウェアが侵入する。セキュリティ教育で怪しいリンクを不用意にクリックしないよう指導するがフィッシング被害は後を絶たない。なぜ人間は簡単なトリックに騙されるのか、ニューロサイエンスの観点から研究が始まった。

出典: WikiLeaks  

クリントン陣営へのサイバー攻撃

トランプ大統領が就任して以来、ロシア政府との関係が連日報道される。ロシア政府が大統領選挙を操作したとの疑惑で事実解明は進んでいない。一方、US Intelligence Community (米国諜報機関連合体) は大統領選挙でロシアがクリントン候補の活動を妨害したと結論付けている。米国諜報機関によるとクレムリンと関係のある人物がDNC (民主党全国委員会) のメールシステムに侵入し、それをWikiLeaksに提供したとしている (上の写真、窃取されたメールを閲覧できる)。

サイバー攻撃で大統領選が左右された

WikiLeaksに公表されたのはクリントン陣営会長John Podestaのメールで2万ページに及ぶ。この中にはクリントン候補がウォールストリートで講演した内容も含まれ、これらが公開されるとで選挙戦で大きなダメージを受けたとされる。クリントン候補の敗戦理由の一つがWikiLeaksで公開されたメールといわれている。

侵入の手口はシンプル

DNCのメールに侵入した方法はSpear Phishingといわれている。これはPhishingの常套手段で、信頼できる発信人を装い受信者の機密情報を盗む手法である。このケースではPodestaのGmailが攻撃された。Bitlyで短縮されたURLをクリックすると、Gmailログインページが表示され、IDとパスワードの入力を求められた。Podestaは怪しいと感じIT部門に確認したが、結局、このトリックに騙された。この事件は人間の脳の構造が関与しているといわれる。

脳科学とセキュリティに関する論文

脳科学を活用したセキュリティ技術研究が進んでいる。Brigham Young UniversityのAnthony Vanceらは脳科学とセキュリティに関する論文「More Harm Than Good? How Messages That Interrupt Can Make Us Vulnerable」を発表した。この論文は人間の脳はセキュリティメッセージにどう反応するかをfMRI (下の写真) を使って解析した。

出典: Jenkins et al.

マルチタスクでの試験

この研究は人間がマルチタスクを実行 (これをDual-Task Interfaceと呼ぶ) するときに着目し、脳の機能をfMRIで観察した。マルチタスクとは二つの作業を同時にこなすことで、ここでは作業中にセキュリティメッセージを読むタスクが課された。具体的には、被験者に7ケタの数字を覚えることを求め、同時に、セキュリティメッセージに正しく対応できるかが試験された。

マルチタスクでは血流が悪くなる

この時、脳内の血流をfMRIで計測した。対象はMedial Temporal Lobe (MTL) といわれる部位で、ここは長期記憶を司る部分とされる。結果は、被験者がマルチタスクの状態でセキュリティメッセージを読むとMTLの血流が少なくなっているのが観察された。このことはマルチタスクがMTLの活動を低下させ、長期記憶にアクセスしてセキュリティメッセージに反応する機能が著しく制限を受けることを意味する。(下の写真は普通の状態でセキュリティメッセージを読んでいる状態。マルチタスクの時と比べ、オレンジ色の分部で血流が増えた。)

出典: Jenkins et al.

Neurosecurityという研究

これは「Neurosecurity」と呼ばれる研究で、脳科学をセキュリティに応用し製品のインターフェイスを改良することを目指す。論文はセキュリティメッセージを表示するインターフェイスを改良する必要があると提言している。具体的には、利用者が作業を終えたタイムングを見計らってセキュリティメッセージを表示べきだとしている。

研究成果をGoogle Chromeに適用

Brigham Young UniversityはGoogleと共同で、研究結果をブラウザー「Chrome」に応用する試みを進めている。Chromeは「Chrome Cleanup Tool」というセキュリティツールを提供している。これをブラウザーにインストールしておくと、ブラウザーが問題を検知するとメッセージを表示し (下の写真、右上の分部)、利用者にツールを起動するよう促す。このツールを起動することでブラウザーに侵入したマルウェアなどを除去できる。

利用者はメッセージを無視する

便利なツールであるが、メッセージを表示しても利用者がアクションを取らないという問題を抱えている。実際に856人の被験者 (Amazon Mechanical Turkを利用) を使って試験が行われた。この結果、利用者がビデオをみている時にこのメッセージを出すと (下の写真)、79%のケースで無視された。つまり、マルチタスクの状態では利用者はセキュリティメッセージに反応しないことが分かった。このため、セキュリティメッセージはビデオが終わった後に表示するようGoogle Chromeのインターフェイスが改良された。

出典: Jenkins et al.  

Chromeインターフェイス改善

この他にも、利用者がタイプしている時や、情報を送信している時など、マルチタスク実行時には80%のケースでメッセージが無視されることも分かった。一方、ビデオを見終わったタイミングでメッセージを表示すると無視されるケースが44%に下がる。更に、ウェブページがロードされるのを待っている間にメッセージを表示すると無視されるケースが22%と大幅に低下する。これらの研究結果がGoogle Chromeのインターフェイス改善に生かされている。

脳科学に沿ったセキュリティデザイン

企業や政府でPhishing被害が後を絶たないが、これは人間の脳が持っている基本的な属性が大きく関与している。本人の不注意という側面の他に、ブラウザーやアプリのインターフェイスが悪いことが重要な要因となる。忙しい時にメッセージが表示されると、注意が散漫になり、操作を誤ることは経験的に感じている。Brigham Young Universityはそれを定量的に証明し、Googleはこの成果を製品開発に活用している。脳科学に沿ったセキュリティデザインに注目が集まっている。

Googleは駐車場の込み具合をAIで予測する技術を開発、センサーは不要でアルゴリズムが正確に推定

駐車場管理はInternet of Thingsの得意分野で、設置したセンサーがクルマの有無を捉え混雑状況を把握する。Googleのアプローチはソフトウェアで、クルマの流れをMachine Learningで解析し混雑状況を正確に推定する。駐車場にセンサーを設置することなく、アルゴリズムのパワーで施設を管理する。

出典: VentureClef  

駐車場の混雑情報を表示

駐車場の混雑状態を表示するサービスが今月から始まった。Google Mapsで目的地までの道順を検索すると、駐車場の込み具合も表示される (上の写真、最下段の分部)。例えば、Mountain View市街に向かうとき、駐車場の込み具合は「Medium」となっている (上の写真左側)。これは「駐車場を探すのは難しくない」という意味で、時間通りに出発できる。込み具合に応じて出発時間を調整することができる。

駐車場が無ければ電車で移動

一方、サンフランシスコのカンファレンス会場への道順を検索すると、駐車場は「Limited」と表示される (上の写真右側)。これは「駐車場は限られている」という意味で、駐車場を探すために時間がかかると注意を促している。駐車が難しいのであれば電車で行くという選択肢も浮上する。事実、Googleによるとこのサービスを始めると、電車で移動するルートの検索件数が急増したとしている。

混雑状況を把握する仕組み

Googleは新サービスの仕組みを「Using Machine Learning to predict parking difficulty」として公表した。これによると、駐車場空きスペースを把握するために、クラウドソーシングとMachine Learningという技法を使っている。クラウドソーシングとはユーザデータを集約して利用することを示す。このケースではGoogle Mapsユーザの位置情報を集約して利用する。Google Mapsユーザに「駐車場を探すまでどのくらいかかりましたか?」という質問を送り、その回答を集約し、駐車場を探す難易度を算定した。Googleはこの手法で信頼度の高いGround Truth (基準データ) を収集した。

店舗やレストランの混雑状況

Googleは早くから利用を許諾したユーザの位置データを使ったサービスを展開している。その代表がGoogle Mapsで表示されるLive Traffic (渋滞情報) でクルマの流れをリアルタイムで表示する。また店舗やレストランのPopular Time (混雑情報) やVisit Duration (滞在時間) を提供している。便利なツールで生活の一部として利用されている。

クラウドソーシングの限界

しかしこの手法だけでは駐車場の込み具合を正確に推定することはできない。クルマを駐車する場合はパターンの数が多く、これらの要因も考慮する必要がある。例えば、クルマが私有地に駐車すると、アルゴリズムは空きスペースがあると誤認する。また、利用者がタクシーやバスで移動したケースも、アルゴリズムは駐車スペースがあると誤認する。駐車スペースを判定するためにはクラウドソーシングの手法では限界がある。

出典: VentureClef  

クルマの移動パターンと駐車場の有無

このためクルマがどんなパターンで移動すると駐車場が無いことを示すのか、その特徴量を見つけることがカギとなる。昼食時間にクルマが街中を周回する動きをすると (下の写真)、これは駐車場が無いためと判断する。一方、利用者が目的地に到着し、そのまま施設に入った場合は駐車場があったと判断する。このような特徴量を把握してアルゴリズムに反映した。

出典: Google    

20のモデルを生成

この他に目的地に特有な条件や駐車場の位置に依存した要因も考慮する必要がある。また、駐車する時間や、駐車する日に依存する条件なども取り入れる。更に、過去の統計情報も利用された。最終的には20のモデルが作られ、これを使ってアルゴリズムが教育された。

Logistic Regressionという手法

前述の通り、このモデルの解析ではMachine Learningが使われた。Machine Learningには様々な手法があるが、その中でもLogistic Regressionという技法が使われた。Logistic Regressionとは統計学の代表的な技法で、変数の間の関係を推定する。アルゴリズムを教育することで、ある変数を入力すると、その結果を推定することができる。つまり、Logistic Regressionはある事象に関する結果を予想する。ここではドライバーの運転データを入力すると、駐車場を探すのが容易であったか、困難であったかを推定する。アルゴリズムは容易か困難かの二つの値を出力し、これはBinary Logistic Modelと呼ばれる。

Deep LearningではなくMachine Learningを採用

Deep Learningで世界をリードするGoogleであるが、敢てMachine Learningの技法を使ったことは興味深い。具体的には、Neural Network (人間の脳を模したネットワーク) ではなくLogistic Regression (統計手法) が使われた。Googleはこの理由として、「Logistic Regressionは技術が確立しており、挙動を理解しやすいためと」述べている。このことは、Neural Networkは中身がブラックボックスでその挙動が分かりにくいということを示す。

今年のAI技法のトレンド

Googleや他の企業でMachine Learningを見直す動きが広がっている。Neural Network全盛時代であるが、長年にわたり培われた技法を改良しうまく利用しようとする試みである。同時に、Neural Networkのブラックボックスを開き、仕組みを解明しようという研究も始まった。AIの観点からは、Machine Learningの改良とNeural Networkの解明が今年の大きなテーマになっている。

サンフランシスコ市街の駐車場

この技法でサンフランシスコ市街の駐車場の混雑を予測すると下の写真の通りとなる。市街地を区画ごとに分け駐車場の込み具合を表示している。色の濃い部分が混雑が激しいことを示す。上段は月曜日で下段は土曜日。左側は午前8時で右側は午後9時の標準的な込み具合を表示している。月曜日の朝はFinancial Districtを中心としたビジネス街の駐車場が混むが、土曜日の夜はUnion Squareを中心とした観光スポットの駐車場が込むことが分かる。

出典: Google    

サンフランシスコ市の取り組み

駐車場管理や混雑情報の発信は行政の責任でもある。事実、サンフランシスコ市は駐車場にIoTを導入し、混雑度を把握する実証実験「SF Park」を進めている。サンフランシスコ市街地では路上駐車スポットにParking Meterが設置され、コインやカードやアプリで駐車料金を支払う (下の写真)。同時に、Parking Meterがセンサーとなり、クルマの有無を検知する。Parking MeterはIoT専用ネットワークSigfoxで結ばれ、駐車スポットの込み具合を集約する。このIoTシステムが完成すると、駐車場混雑情報がリアルタイムで分かることになる。

出典: San Francisco Municipal Transportation Agency

センサー対アルゴリズム

果たしてサンフランシスコ市によるIoT駐車場管理システムは正しく混雑状態を把握できるのか関心が高まっている。Parking Meterで駐車を正しくセンシングできるかという問題である。Parking Meterのある駐車スポットに違法で駐車したり、また、特別許可証を持ったクルマが駐車した場合は空きと判断される恐れがある。また、駐車時間が残っているのにクルマを出す人もあり、このケースでは駐車中と判断される可能性が高い。

スマートシティー開発のモデルケース

リアルタイムで正確な駐車場空き情報を把握するのは難しい作業となる。これに対し、Googleはセンサーは使わないでアルゴリズムが混雑状況を把握する。センサーとアルゴリズムの戦いが始まり、どちらに軍配が上がるのか地元住民だけでなく全米で関心が高まっている。GoogleやSF Parkの取り組みが米国で展開されているスマートシティー開発のモデルケースとして注目されている。

Googleは自動運転技術会社「Waymo」を設立、開発から事業化に向け大きく舵を切る

Googleは自動運転車部門をAlphabet配下の独立会社とすることを発表した。新会社の名前は「Waymo」で「a new way forward in mobility (モビリティへの新ルート) 」を意味する。発表と同時に新会社のロゴ「W」に衣替えをした試験車両が登場し、シリコンバレーで試験走行を始めた (下の写真) 。

出典: VentureClef

研究開発から事業推進へ

自動運転車部門の最高責任者John Krafcikが2016年12月に発表した。自動運転車開発はGoogle研究所「X」で行われてきたが、これからはAlphabet配下の独立企業として継続される。今までは研究開発という色彩が濃かったが、これからは事業として評価されることになる。Waymoが開発する技術は、個人向けの車両だけでなく幅広い分野で使われる。ライドシェア、貨物運輸、公共交通のラストマイルなどが候補に挙がっている。

Fiat Chryslerとの提携

Googleは2016年5月、Fiat Chryslerと共同で自動運転車を開発すると発表した。同社のプラグインハイブリッド・ミニバンChrysler Pacifica (下の写真) に自動運転技術を搭載し試験走行を展開する。Krafcikは、次世代センサーをこれら車両に搭載しており、開発が順調に進んでいることを明らかにした。一方、Bloombergは、2017年末までにChrysler Pacificaをベースとする自動運転車でライドシェアサービスを始めるとしている。Waymoはこれに関しコメントしていないが、来年には自動運転タクシーが登場する可能性もある。

出典: Waymo

自動運転車開発を振り返る

Googleは2009年から自動運転車を開発してきた。当初はToyota Priusをベースとする車両で (下の写真)、完全自動運転車の開発を目指した。目標はドライバーが操作することなく100マイルを自動走行することであった。カリフォルニア州でこのコースを10本設定したが、数か月後には目標を達成した。

出典: Waymo

技術開発を本格的に展開

2012年にはLexus RX450hを投入し、フリーウェイで自動運転技術を開発した。開発は順調に進み、このクルマをGoogle社員に貸し出し試験を続けた。この頃、Googleは自動運転車を商用化するめどが立ち、研究開発を本格化させた。自動運転車を市街地で走らせ、歩行者や自転車や道路工事作業員などに交じって走行試験を始めた (下の写真) 。

出典: Waymo

Googleが自動運転車をデザイン

2014年にはGoogleが自動運転車の車両を設計した。これは「Prototype」 (下の写真) と呼ばれ、自動運転車のあるべき姿を具現した。PrototypeはGoogleが開発したセンサーやプロセッサーを搭載し、社内にはステアリングやブレーキ・アクセルペダルはない。完全自動運転を意識したデザインとなっている。

出典: Waymo

Paint the Town

2015年には市街地でPrototypeの走行試験を始めた。Lexusベースの自動運転車と共に、Mountain View (カリフォルニア州) とAustin (テキサス州) で試験走行を展開。Prototypeの側面には市民がデザインした街の風景がペイントされた (上の写真)。これは「Paint the Town」というプロジェクトでPrototypeが街や市民になじむことを目指した。

公道での初めてのソロ走行

2015年にはAustin市街で完全自動運転技術の実証実験が行われた。視覚障害者がPrototypeに一人で搭乗し、目的地まで走行した。Prototypeが市街地で走行試験を行う際には、Googleスタッフが搭乗し自動運転をモニターし、緊急の際は運転を取って代わる。この実証実験ではGoogleスタッフは搭乗しないで、公道での初めてのソロ走行となった。このデモは完全自動運転車が非健常者や高齢者の足代わりになることを示した。

200万マイルを完走

2016年には自動運転車の走行距離が200万マイル (320万キロ) を超えた (下の写真)。試験走行場所はKirkland(ワシントン州)とPhoenix(アリゾナ州)が加わり四か所となった。Kirklandは年間を通じ雨が多く、Phoenixは砂漠の気候である。自動運転車を様々な環境で試験する試みが進んでいる。そして2016年12月、開発部門はGoogleからAlphabetに移り、Waymoとして独立した。

出典: Waymo

自動運転車の残された課題

Waymo自動運転車は200万マイルを走行し多くの課題を解決してきた。これからは複雑な市街地を安全に走行できる技術の習得が目標となる。これは「Final 10%」と呼ばれ、残された10%の分部の開発が一番難しく、時間を要する部分となる。自動運転車は既に高度な運転技術を習得している。状況の認識能力が上がり、緊急自動車や道路工事現場などを把握できる。これにより、レーンが閉鎖されていても、道路が通行止めになっても、自動運転車は対応できる技術を習得した。

自然な運転スタイル

これからの自動運転車の課題は自然な運転スタイルの学習にある。自動運転車が加速するとき、また、ブレーキを踏むとき、どれだけスムーズに操作できるかが重要なテクニックとなる。また、他車や歩行者との距離感や、カーブを曲がる速度や角度を学んでいる。これらは微妙な運転テクニックで、乗客が安心して乗れる技術を学習している。

出典: VentureClef

ソーシャルインタラクション

自動運転車は他のドライバーや歩行者とのInteraction (意思疎通) を学習している。例えば渋滞しているレーンに入るとき、隣のクルマが前に入れてくれるかどうかの判断を迫られる。もし、入れないと判断するとスピードを落とすなどの処置が必要となる。自動運転車は他車の進路や速度や意図を高精度で予測し、追い越しや割り込みのテクニックを学んでいる。同時に、自動運転車は自分がどうしたいのか、その意図を他車に伝える技術も学んでいる。(上の写真は隣のレーンを走るWaymo自動運転車。)

自動運転車の事業化が一気に進むか

Alphabet最高経営責任者Larry Pageは自動運転車を早く事業化することを求めている。一方、開発サイドは完全自動運転車の開発には一定の時間がかかるとしている。Pageは完全自動車の完成を待てばビジネスチャンスを逃してしまうとの危機感を持っている。半自動運転車として製品化することを強く求めているとも伝えられる。Waymoとして収益が求められる中、自動運転技術が最終製品として早期に登場する可能性が高まった。

Googleは人工知能スピーカー「Home」を出荷、スマホの会話型AIが家庭に入ってきた

Googleは人工知能スピーカー「Google Home」の出荷を開始した。会話型AI「Google Assistant」を実装し、言葉で質問すると音声で答える。AssistantはGoogle独自のスマートフォン「Google Pixel」で使われている。Googleは同じアシスタント機能をスマホと家電で展開する。Homeを使うと家の中が一気にインテリジェントになり、AI家電に大きな将来性を感じる。

出典: VentureClef

音声で操作するスピーカー

Googleは2016年11月、AIを搭載したスピーカー「Google Home」 (上の写真) の出荷を開始した。Homeは会話型AI「Google Assistant」を搭載し、音声がインターフェイスとなる。Homeは丸みを帯びた円柱形のデバイスで家庭内に置いて利用する。HomeはAmazonのヒット商品「Amazon Echo」のアイディアを踏襲している。先行しているEchoをHomeが追う展開となっている。

HomeにOk Googleと語り掛ける

Homeの上部はタッチスクリーンで、ここにLEDライトが埋め込まれている。LEDライトは利用者の声に反応して点滅する。LEDライトの様々な動きでHomeの状態を示す。タッチパネルに指で円を描くように動かすと音量を調整できる。背後にはマイクをオンオフするボタンがある。Homeは常に周囲の声を聞いており、ボタンを押すとこれがオフとなる。Homeに話しかけるときは「Ok Google」と言えば、これに続く言葉を認識する。

複雑な質問に答える

Homeは情報検索で威力を発揮する。ここが他社に比べ大きな優位点となる。例えば「what time will the sun rise」と聞くと、「the sun will rise 6:39 AM」と答える。これは簡単な質問だが、複雑なクエリーにも的確に答える。「What was the US population when NASA was established」と尋ねるとHomeは「174.9 million」とズバリ回答する。(下の写真左側はHomeに問いかけた内容で、右側はAssistantが答えた内容。)

出典: VentureClef

幅広い知識を持つ

Homeは幅広い知識を持ち、スポーツの試合結果を回答する。「who won the world series」と聞くと「the world series was won by Chicago Cubs」と答える。翻訳機能もあり、「what’s good morning in Spanish」と聞くと「Buenos días」と答える。健康管理では食事の時に食物のカロリー量を知ることができる。「how many calories in an apple」と聞くと、「there is 95 calories in one medium apple」と答える。

会社の秘書のように働く

HomeはGoogle Calendarとリンクし筆者の予定を把握している。このためHomeに「what’s my next event」と質問すると、次の打ち合わせ予定などを回答する。出張などで飛行機を予約している時は、フライトスケジュールを教えてくれる。「is my flight on time」と質問すると、飛行機が予定通りに出発するかどうかを回答する。Homeは会社の秘書のように働いてくれる。

中心機能はエンターテイメント

Homeの中心機能はエンターテイメントで、音楽やニュースをスピーカーで聞くことができる。Homeに「play music by Lady Gaga」と指示するとレディー・ガガの音楽を再生する。聞きたい音楽の題名を指定する時は「play Poker Face by Lady Gaga」と語り掛けるとポーカーフェイスを流す。ラジオ放送を聞きたいときは「Play KCSM」と放送局を指定する。この他に、CNNなどのニュース放送やNFLなどスポーツ番組もそろっている。

テレビを音声で操作する

Homeを使って圧倒的に便利だと感じるのがテレビを音声で操作する機能だ。HomeはGoogleのストリーミングデバイス「Chromecast」経由でビデオや音楽コンテンツをテレビに配信する。音楽を聴きたいときは「play music by Beyoncé on my TV」と指示すると、Google Play Musicからビヨンセの音楽がテレビで再生される (下の写真)。当然だがテレビのスピーカーで聞く音楽はHomeで聞くより迫力がある。

出典: VentureClef

テレビでビデオをみる

見たい番組を指示すると、HomeはそのコンテンツをYouTubeから探し出し、テレビにストリーミングする。Homeに「play CNN News on my TV」と指示すると、この番組がYouTubeからChromecastを経由してテレビにストリーミングされる (下の写真)。今まではスマホを操作して番組をテレビにストリーミングしていたが、音声操作で格段に便利になった。

まだ複雑な指定はできないが

YouTubeには幅広いコンテンツが揃っていて、人気チャンネル「History Channel」や「National Geographic」などをテレビにストリーミングできる。「trending videos…」と言えばいま人気上昇中のビデオが配信される。但し、見たい番組を細かく指示するのは難しい。例えば、CNBC放送でElon Muskの会見の模様を見るために「play Elon Musk on CNBC on my TV」とHomeに指示するが上手くいかない。まだ、複雑な指定はできないが、これからの機能拡張を期待する。

出典: VentureClef

検索結果をテレビで見る

Homeを使うと検索結果をテレビに表示することができる。例えば「can you show me Hubble Telescope on my TV」と指示すると、ハッブル望遠鏡についてのビデオをテレビに配信する。知りたい情報をテレビで見ることができ、Homeはエンターテイメントだけでなく教育ツールとしても使えそうだ。

Chromecastをテレビにセット

この機能を使うためには、テレビ側にChromecast挿入しておく (下の写真、円形のデバイス)。ChromecastはAndroidやブラウザーからコンテンツをテレビにストリームングするために開発された。Homeはこの仕組みを利用して、音声でChromecastを操作する。

その際、Chromecastに名前を付けておけば (筆者のケースでは「TV」)、Homeに対して「play CNN on TV」と指示するとストリーミングが始まる。Homeの機能は多彩だが、音声でのストリーミング機能は予想外に便利だ。テレビを含む家電のインターフェイスが会話型AIに進化するのは間違いない。

出典: VentureClef

スマートホームのハブ

Homeはスマートホームのハブとなり、電灯や空調などを操作する。Homeをスマートライト「Philips Hue」とリンクすると音声でLEDライトをオンオフできる。例えば「turn on living light」と指示すると、リビングルームの電灯が点灯する。HomeがサポートしているスマートデバイスはPhilips Hueの他に、NestやSmartThingsなどがある。

Homeのエコシステムは拡大中

登場したばかりのHomeで使える第三者サービスの数は限られている。音楽ではSpotifyとPandoraを、ラジオではTuneInを利用できる。配車サービスではHomeでUberを呼ぶことができる。Googleの自社サービスではGoogle Play Music とYouTube Musicを使える。ビデオではYouTubeを使うことができるが、前述の通りChromecastをテレビに接続しておく必要がある。

Amazon Echoの優位点はスキル

Google Home (下の写真左側) とAmazon Echo (同右側) はAIスピーカーとして開発され両者の機能はよく似ている。一方、先行しているEchoは幅広い第三者サービス (Skillと呼ばれる) を備えている。今では2000本近いSkillがあり、病気の診断やスマートホームのハブとして使われている。Echoに指示すれば焼き立てのピザが届く。幅広いタスクを実行できる点でEchoがHomeに差をつけている。

出典: VentureClef

Google Homeの優位点は情報検索

Google Homeは複雑な質問を理解し情報検索できる点が大きな優位点となる。更に、Homeは利用者の個人情報を幅広く把握している。HomeはGoogle CalendarやGoogle Keepと連携し、予定や備忘録を管理する。気の利く秘書のように一日の予定や出張を手助けしてくれる。また、Chromecastとリンクすることで結果をテレビに出力できる。Google Pixelのコア技術であるAssistantを家庭に展開した構造で、Google Homeに大きな将来性を感じる。