月別アーカイブ: 2016年10月

無人カーでのレースが開幕、人工知能がF1ドライバーを超える?

ドライバーが搭乗しないレーシングカーによるレースが始まった。これは「Roborace」と呼ばれ、AIレーシングカーがFormula Oneのようなバトルを展開する。レーシングカーにはコックピットはなく、Deep Learningが操縦する完全自動運転車だ。アルゴリズムがLewis Hamiltonを超えるのかファンの注目を集めている。

Roboraceとは

RoboraceはEVのF1といわれる「Formula E」シリーズの一部として位置づけられる。Roboraceは10チームで構成され、各チームは二台の無人レーシングカー (上の写真) で勝負する。レーシングカーの車体は同じものが使われるが、各チームは独自にソフトウェアを開発し、レーシングカー制御と自動運転技術の戦いとなる。

EVと自動運転技術の交差点

高速で走行するレーシングカーからリアルタイムで大量のデータが収集される。これを如何に高速で処理できるかがポイントになる。これらのデータを解析し自動運転するAI技術が競われる。クルマの将来はEVと自動運転技術で、Roboraceの意義はこの構想をレースの形で世界に示すことにある。Roboraceは再生可能エネルギー技術と自動運転技術を結び付け、未来のモビリティを示している。

未来的なデザイン

Roboraceで使うレーシングカーはKinetikが開発し供給する。Kinetikとは英国のベンチャーキャピタルで、配下のRoborace社が車体の設計と製造を担う。レーシングカーのデザインはDaniel Simonが手掛けた。同氏はディズニー映画「Tron Legacy」で登場する二輪車「Light Cycle」をデザインした。RobocarはLight Cycleをほうふつさせる未来的な形状と色彩となっている。

レーシングカーの形状はシンプル

レーシングカーは無人で走行することを前提にゼロから設計された。ドライバーが搭乗しないのでコックピットはなくシンプルな形状となっている。機能面からは床面の形状でダウンフォースを得る。レーシングカー底部を高速で流れる空気を利用して車体を路面に押し付ける。このダウンフォースを利用して高速でコーナーを回ることができる。ちなみにF1ではダウンフォースを得るためにFront WingとRear Wingを車体に付けている。

多数のセンサーを搭載

レーシングカーは自動運転のための様々なセンサーを搭載している。Lidar (レーザーレーダー) を5台搭載している。前面に二台、側面に二台、後部に一台搭載し、周囲のオブジェクトを把握する。AIカメラは前面に二台とPole (車体上部に設置されたポール) に一台設置される。名前が示すように、AIと連動しインテリジェントなセンサーとなる。この他に、レーダー、超音波センサー、GPSアンテナを搭載する。

Deep Learningを使った運転技術

レーシングカーは処理装置としてNvidiaの車載スーパーコンピューター「Drive PX 2」を搭載している。Drive PX 2はセンサーからのデータを処理し周囲のオブジェクトを把握する。更に、Deep Learningの技法でクルマが運転技術を学ぶ。試合を重ねるにつれレーステクニックを習得し人間のドライバーに近づいていく。将来はF1ドライバーを凌駕するのではとの声も聞かれる。

香港グランプリでデビュー

Roboraceは2015年11月に計画が発表され、今シリーズからレースを始めるとしていた。実際には、10月に開催された香港グランプリでRoboraceの試験車両「DevBot」が公開された (上の写真)。試験車両はドライバーが搭乗できるコックピットが備え付けられているが自動で走行する。グランプリではそれをデモする予定であったが、バッテリーの問題で残念ながら中止となった。Roboraceは2016年をシーズンゼロと位置づけDevBotの開発を続け、来年度からRoboraceでレースが始まる。

Formula Eとは

Roboraceが属するFormula Eとは2014年に創設されたモータースポーツイベントで、バッテリーで駆動するレーシングカーが速さを競い合う。Formula EはFIA (国際自動車連盟) が管轄する。FIAはFormula OneやWorld Rallyなど世界のトップレースを運営している。3シーズン目となる2016年はスポーツファンの数が増え人気が急上昇している。

中国を舞台にシーズンがスタート

今シーズンのFormula Eは香港グランプリから始まり、2017年7月まで世界10都市で12レースを開催する。香港グランプリは市街地にレースコースが設定され10チーム20台が競った (下の写真)。レースは事故が続発する波乱の展開となり、昨年度のチャンピオンe.Dams (RenaultのFormula Eチーム) のSébastien Buemiが優勝した。昨年までは北京で開催され、毎年中国を舞台にシーズンがスタートする。

F1に性能では劣るが

Formula Eは外観はF1に似ているが電気モーターで駆動するレーシングカー。レース時間は50分で一人が二台のマシンを使って競技する。F1は燃料が少なくなるとピットインして給油するが、Formula Eは電気残量が少なくなるともう一台のマシンに乗り換えてレースを続ける。Formula Eの最高速度は時速220キロであるがF1は時速340キロと大きく上回る。最高速度や加速性能でF1が上回るが、Formula EはEV技術が高速に進化し、その将来性に期待が集まっている。

レースはバッテリーの勝負

EV技術の中心がバッテリー開発となる。Formula Eのバッテリー重量は200kgで、バスの電圧は1000Vに制限されている。更に、モーター出力は200 kW (270馬力) だが、レース中は170 kWに制限されている。バッテリーからの電力使用量は28kWhに制限される。レースはエネルギー管理の戦いでもあり、多くの制限のもとで最新技術が磨かれる。

ファン投票でエネルギーを得る

レースは速さを競うだけでなく、楽しく観戦できる仕組みが随所にみられる。ファンは応援しているドライバーに投票しマシンの出力を上げることができる。これは「FanBoost」と呼ばれ、投票数の多いドライバーは100キロジュール (100kW x 秒) を受ける。5秒間で20kWの追加エネルギーを得ることができ12%の出力アップとなる。これでライバルを追い抜くシーンが見られ、ファンはレースに参戦した気分になる。

中国企業がFormula Eに参戦

Formula Eの特徴は多くの中国企業がレースに参戦している点だ。「NextEV」は中国企業が運営するレーシングチームでFormula E創設以来参戦している。昨年度は9位の成績で不調に終わったが、今年は巻き返しを狙っている。3シーズン目にあたる今年は「Techeetah」というチームが参戦した。このチームは日本のFormula Eチーム「Team Aguri」を買収してレースに加わった。

Faraday Futureも参戦

今シーズンは「Faraday Future」がスポンサーとしてFormula Eに参戦した (下の写真)。Faraday FutureとはLos Angelesに拠点を置くEVメーカーでTeslaに対抗するEVや自動運転技術を開発している。Faraday Futureは米国籍の企業であるが、中国大手IT企業「LeEco」が出資している。Faraday Futureは米国の名門レーシングチーム「Dragon Racing」のスポンサーとなる。資金を出すだけではなくパワートレイン制御のソフトウェアを提供する。Faraday FutureがFormula Eに参戦したことで中国系企業は3社となり、EVや自動運転技術にかける中国企業の意気込みが感じられる。

Mercedes-BenzがFormula Eに参戦

Mercedes-Benzは2018年シーズンからFormula Eに参戦することを発表した。5シーズン目にあたるこの年から2チーム増え12チームでレースが展開される。このシーズンから1台のレーシングカーで最初から最後まで走り切るだけのバッテリーを搭載する。Renault、Audi、Jaguar (下の写真)、BMWなどがすでに参戦しており、Mercedesの発表でFormula Eへの流れが鮮明になった。

EVへの流れが鮮明になる

MercedesはF1でエースドライバーLewis Hamiltonを抱え、昨シーズンは総合優勝を飾り、今年もチームが連勝する勢いである。F1で破竹の勢いのMercedesが敢てFormula Eに参戦することで、EVレースが一挙に注目を集めることとなった。自動車産業の流れがEVに向かっていることを象徴する出来事となり、NissanやPorscheがこれに続くと噂されている。

F1人気が低迷している

いまF1の人気が低迷している。F1は機能が成熟し大きな技術進化が期待できないという事情がある。そのため多くの自動車メーカーはここへの投資をためらっている。技術進化が停滞しているF1からスポンサーが離れている。かつてはクルマの新技術がF1レースで開発されたが、F1はその役割を終えようとしている。

Formula EでEV技術や自動運転技術が磨かれる

これに対しFormula Eは次世代技術開発のプラットフォームとして位置づけられ、大手自動車メーカーの参戦が相次いでいる。ここが次世代モータースポーツの場であり、高度な自動運転技術を磨く場でもある。モータースポーツファンは進化が止まったF1から、次世代レーシングFormula Eに乗り換えている。Formula Eで磨かれたEV技術や自動運転技術が次世代のクルマ産業を支えることになる。

NvidiaはAI自動運転車を公開、Deep Learningが人間の運転テクニックを模倣する

Nvidiaは半導体製造から自動運転車開発に軸足を移している。NvidiaはAIで構成される自動運転車の試験走行を公開した。Googleなどは自動運転技術の一部をAIで実装するが、NvidiaはこれをすべてDeep Learningで処理する。AI自動運転車は人間の運転を見るだけでドライブテクニックを学ぶ。

出典: Nvidia

自律走行のデモ

Nvidiaは2016年9月、自動運転車が自律走行する模様をビデオで公開した (上の写真、右側手前の車両)。このクルマは「BB8」と命名され、テストコースや市街地で走行試験が実施された。クルマはハイウェーを自動運転で走行できる。ハイウェーは自動運転車にとって走りやすい場所である。しかし、クルマは路面にペイントされている車線が消えているところも自動走行できる。

道路というコンセプトを理解

自動運転車の多くはペイントを頼りにレーンをキープするが、BB8は道路というコンセプトを理解でき、車線が無くても人間のように運転できる。このためBB8は道路が舗装されていない砂利道でも走行できる。路肩は明確ではなく道路の両側には草が生えている。この状況でもクルマは道路の部分を認識して自律的に走行する。

ニュージャージー州で路上試験を展開

クルマは工事現場に差し掛かると、そこに設置されているロードコーンに従って走行する。ドライバーが搭乗しないでクルマが無人で走行するデモも示された。BB8はカリフォルニア州で運転技術を習得した。一方、路上試験は全てニュージャージー州で実施された。クルマは学習した運転技術を異なる州で使うことができることを示した。ちなみにNvidiaはカリフォルニア州では路上試験の認可を受けていない。

Deep Learningを使った運転技術

これに先立ちNvidiaは自動運転技術に関する論文「End to End Learning for Self-Driving Cars」を発表した。この論文でDeep Learningを使った運転技術を示した。自動運転システムは「DAVE-2」と呼ばれ、ニューラルネットワークで構成される。システムはクルマに搭載されているカメラの画像を読み込み、それを解析しステアリングを操作する。

出典: Nvidia

データ入力から出力までをニューラルネットワークで処理

システムの最大の特徴はデータ入力から出力までをニューラルネットワークで処理することだ。カメラのイメージをネットワークが読み込み、それを解析しステアリング操作を出力する。システムが自律的に運転技術を学ぶので、教育プロセスがシンプルになる。カメラで捉えた走行シーンとドライバーのステアリング操作が手本となり、ネットワークがこれを学ぶ。このため、道路に車線がペイントされていなくても人間のように走行できる。また、駐車場で走行路が明示されていなくても、クルマは走ることができる (上の写真)。

ドライバーの運転データを収集して教育

このためドライバーの運転データを収集しネットワークを教育する。具体的には、カメラで撮影したイメージとそれに同期したステアリング操作を収集する。収集した運転データでニューラルネットワークを教育する。ネットワークを構成するConvolutional Neural Network (CNN) にカメラの映像を入力し、ステアリング操作を出力する。この出力を人間のドライバーが運転したときのステアリング操作と比較する。差分を補正することでCNNは人間のドライバーに近づく。

クルマが遭遇するすべての条件を再現

教育データは様々な明るさの状況のもと、また、異なる天候で収集された。データの多くがニュージャージー州で収集された。道路の種別としては二車線道路、路肩にクルマが駐車している生活道路、トンネル内、舗装していない道路が対象となった。気象状況としては、晴れの日だけでなく、雨、霧、雪の条件で走行データが集められた。また、昼間だけでなく夜間の走行データが使われた。つまり、クルマが遭遇するすべての条件が再現された。テスト車両はLincoln MKZとFord Focusが使われた。

車載スーパーコンピューター

教育したネットワークを車載スーパーコンピューター「Drive PX 2」(下の写真)にインストールすると自動運転車が完成する。Drive PX 2は自動運転車向けのAI基盤で自動車メーカーや部品メーカーに提供される。Drive PXはカメラ、Lidar、レーダー、ソナーなどのセンサーで捉えた情報を処理し、クルマ周囲の状況を理解する。これはSensor Fusionと呼ばれ、上述のConvolutional Neural Networkで処理する。ただし、Nvidiaの自動運転車はセンサーとしてカメラだけを使っている。定番技術であるLidarを使わないため、アルゴリズム側で高度な手法が求められる。

出典: Nvidia

アルゴリズムの安全性を確認

システムを教育した後は、路上で試験する前にシミュレータでアルゴリズムを検証する。教育データを入力し、シミュレータでクルマが自動運転できる割合を計算する。このケースでは600秒の運転で10回運転を補正する必要があった。自動運転車がレーンの中心をそれると、仮想ドライバーが元に戻す操作をする。実際の路上試験ではHolmdelからAtlantic Highlands (ニュージャージー州) まで自動運転で走行し、その98%を自動運転モードで運行できた。

AIがルールを学習する

この手法は人間がアルゴリズムに走行のためのルールを教えるのではなく、CNNが画像からそれを読み取る。例えば、CNNはカーブしている道路のイメージを読むと、そこから運転に必要な道路の特徴を把握する (下の写真)。上段がカメラが捉えた画像で、下段がCNNが把握した道路の特徴 (Feature Maps) を示している。CNNは運転に必要な道路の境界部分を捉えていることが分かる。これは人間が教えたものではなくCNNが自律的に学習した成果だ。100時間程度の運転データでCNNを教育すると様々な環境で運転できるようになる。

出典: Mariusz Bojarski et al.

ルールベースの自動運転車

これに対して、自動運転車の多くは画像を解析しルールに従って特徴を抽出する。アルゴリズムは車線ペイントなど道路の特徴や周囲のオブジェクトを把握し、進行経路を計算し、実際にクルマを操作する。これらは事前にプログラムのロジックで定義される。クルマは常に想定外の事象に遭遇するので、それらをIF-THENでプログラミングする。この条件の複雑さ (Curse of Dimensionalityと呼ばれる) が自動運転やロボット開発のネックとなっている。

自動運転技術のロードマップ

Nvidiaの自動運転技術開発は始まったばかりで、次のステップはアルゴリズムの精度を改良する。現在98%を自動運転できるが、この精度を向上させる。また、アルゴリズムの精度をどう検証するかが大きな課題となる。実際に試験運転して精度を測定するだけでなく、これを検証するシステムが必要になる。更にAI自動運転車で問題が発生するとその原因探求が難しい。AIというブラックボックスが周囲の状況を把握し運転する。このため、CNNが把握しているイメージの可視化精度を上げる必要がある。実際にCNNが認識しているイメージを人間が見ることでAIのロジックを理解する。これを手掛かりに問題を解決しアルゴリズムを改良する。

自動運転車はAIアルゴリズムの勝負

NvidiaはDeep Learning向けハードウェアや開発環境を提供する。自動運転車を重点市場としてDrive PXなどをメーカーに提供する。更に、上述のDeep Learningを駆使したソフトウェアも自動運転車開発キットとして提供する。既に80社以上がNvidia技術を使っており、自動運転車のエコシステムが拡大している。多くのメーカーがNvidiaプラットフォームを採用する中、AIアルゴリズムが自動運転市場での勝ち組を決める。

自動運転シャトルがシリコンバレーで営業開始、都市交通のラストマイルを担う

自動運転シャトルに試乗したが次世代モビリティを担うクルマだと感じた。シャトルは大学構内を巡回し、キャンパス内の移動手段として使われる。今はドライバーが搭乗しているが、無人シャトルとなる計画だ。無人シャトルは近距離を移動する車両としてデザインされている。高齢化が進む日本社会に向いているのかもしれない。

Driverless Shuttle

このシャトル (上の写真) は「Driverless Shuttle」と呼ばれ、シリコンバレーに拠点を置く新興企業Auro Roboticsが開発している。シャトルはクルマとカートの中間領域の車両で、ここに自動運転技術を搭載している。シャトルは先月からSanta Clara University (サンタクララ大学) 構内で営業運転を開始した。

シャトルに試乗

大学構内でこのシャトルに試乗した。シャトルはキャンパス内のルートを自動で走行するが、今は専任ドライバーが搭乗し運転を補助する。Auro RoboticsのEric Weberが運転席に座り、Driverless Shuttleの説明を聞きながらルートを周回した。自動運転技術の完成度は高くほぼ自動で走行できた。

3DマップとGPS

シャトルは事前に設定されたルートに沿って自動で走行した。キャンパス内の3DマップとGPSの位置情報を使い自律走行する。経路上で噴水のあるロータリーに差し掛かったが、シャトルはそれを迂回して問題なく走行した (下の写真)。

ジョイスティックで操作

別の場所では路上に大型容器が置かれていたがシャトルはこれを認識した (下の写真)。シャトルは自分で障害物を避けて走行できるが、Weberがジョイスティックを使って手動で操作した。大学との取り決めで、シャトルは事前に設定したコースだけを自動走行するよう定められている。経路を逸脱する際はドライバーがマニュアルで操作する規定となっている。厳しいとも思えるが、安全性に配慮された運行ルールとなっている。

Deep Learningでインテリジェンスな走行

路上には道路標識があり、一時停止標識でシャトルは停止し、安全を確認して発進した (下の写真)。シャトルはプログラムされたルールに従ってこの一連の操作を実行した。しかし、シャトルの自動走行技術はAIで強化されつつある。Auro RoboticsはDeep Learningの技法で自動運転技術を開発している。事前にプログラムするのではなく、AIが自ら道路標識の意味を学習する。更に、Deep Learningの手法で障害物を把握し、その動きを予想する。例えば、シャトルの前を人が横切ると、アルゴリズムは人であると判定するだけでなく、人の次の動きを予想する。シャトルは人間のドライバーのようにインテリジェントになる。

Lidarを中心としたセンサー

シャトルにはLidar、カメラ、GPSが搭載され、クルマの周り360度のオブジェクトを把握する。測定できる距離は100メートルで様々な明るさの元で動作する。二種類のLidarを使っており、屋根の上にはVerodyne社製を、バンパーの下にはLeddarTech社製を搭載している。バンパーの下にLidarを設置しているのですぐ前を子犬が横切っても検知できる。カメラはフロントグラスの内側にマウントされている。今はLidarがクルマの眼となっているが、Deep Learningの開発が進むとカメラがセンサーの中心となる。

スマホアプリで無人シャトルを利用

定められたコースを巡回する方式に加え、利用者がオンデマンドでシャトルを利用する方式が開発されている。利用者はスマホアプリで無人シャトルを呼び、向かっているシャトルの位置はアプリに表示される。無人シャトルに乗ると備えつけのタブレットで降車場所を指定する。無人タクシーのように、スマホアプリで無人シャトルを利用する。

工場や空港やテーマパークに導入

シャトルはミニバスの代替手段となり、大学キャンパスだけでなく工場敷地内や空港などでの利用が計画されている。更に、ディズニーランドのようなテーマパークでも需要があるとみられている。米国では退職者のコミュニティが各地にあり、ここでの利用も検討されている。これらは私有地で道路交通法が適用されないため、無人シャトルの運行では自由度が高い。自動運転技術の導入の最初のステップとなる。

大企業に先んじて自動運転車を運行

Auro Robotics創業者たちはインドの大学で無人シャトルの基礎技術を研究した。その後、Y Combinatorを経て、2016年5月、大手ベンチャーから200万ドルの出資を受けた。大学での人気の科目は自動運転技術で、今では高校でこの教育が始まり話題となっている。Auro Roboticsはその魁で、大学での研究がDriverless Shuttleとして結実した。大手企業から製品が登場していない中、新興企業が自動運転シャトルを運行していることの意義は大きい。

生活のラストマイル

生活に密着し小回りの利く無人シャトルはむしろ日本社会に向いているのかもしれない。試乗してそう感じた。高齢化が進む中、自分で運転する代わりに無人シャトルで移動する。政府の観点からは公共交通網を無人シャトルで補完するという選択肢がある。道路整備や安全性の確保など多くの課題はあるが、無人シャトルは生活のラストマイルで活躍が期待される。

自動運転車のテストコースはビデオゲーム、AIがカーチェイス見て運転テクニックを学ぶ

最新のビデオゲームを見るとシーンが余りにもリアルで写真と区別がつかない。精巧に描写されたビデオゲームを自動運転車開発に利用するアイディアが登場した。長い年月をかけ市街地で走行試験を重ねる代わりに、ビデオゲームに描かれる街中を走りAIアルゴリズムを開発する。

出典: Stephan R. Richter and Vibhav Vineet and Stefan Roth and Vladlen Koltun

インテル研究所などが開発

この技法を開発したのはIntel Labs (インテル研究所) とDarmstadt University (ダルムシュタット大学) で、ビデオゲームを使って自動運転車を教育する。この研究ではビデオゲーム「Grand Theft Auto」が使われた。これは三人組がクルマで市街地を走り犯罪を重ねるビデオゲームで、ここから抽出したフレームでアルゴリズムを教育する。上のグラフィックがその事例で、雨が降る市街地を描写しているが現実世界と区別がつかない。この成果は論文「Playing for Data: Ground Truth from Computer Games」として発表された。

Deep Learningが自動運転技術を支える

自動運転技術開発で成否のカギを握るのがクルマ周囲のオブジェクトを正確に把握する技法だ。自動運転車は搭載しているカメラで周囲を撮影し、そこに何が写っているかを判定する。カメラがクルマの眼となり、乗用車、バス、歩行者、自転車、信号機、歩道、道路などを認識する。AIの一技法であるDeep Learningが自動運転技術を支える。

オブジェクトを識別する方法

AIがビデオからオブジェクトを識別するには二つの手法がある。一つは「Object Detection」と呼ばれ、写真に写っているオブジェクトを箱で囲って示す。オブジェクトの位置と大きさを示すとともに、その区別を表示する。もう一つは「Semantic Segmentation」と呼ばれ、写真の中のオブジェクトをピクセルレベルで表示する。オブジェクトの区別は色分けして示される。

Semantic Segmentationの事例

下の写真がSemantic Segmentationの事例で、左側の写真を処理すると右の側のグラフィックスとなる。道路、自動車、歩行者、建物などのオブジェクトが色分けして示される。前者より高度な技術で、自動運転車は進行方向に何があるのかを理解でき、ナビゲーションの信頼度が大きく向上する。(下の事例はUniversity of Cambridgeの研究成果で、写真をアップロードするとその意味を色分けして表示する。)

出典: VentureClef / University of Cambridge

自動運転技術開発のプロセスと障害

自動運転車が走行する時には、カメラで撮影したイメージを車載システムに入力しリアルタイムで周囲のオブジェクトを把握する。クルマがこの判定をできるようになるためには、事前にアルゴリズムを教育しておく必要がある。教育のためには大量の写真が必要となり、自動運転車は街中を走り回り、走行の様子をビデオで撮影する。次に、撮影された写真に写っているオブジェクトを人間が手作業で名前付けをする。つまり、写真と名前付けされたグラフィックス (上の写真の関係) から成る基準データ (Ground Truth) を整備するという大作業が発生する。これが自動運転車開発で大きな障害となっている。

効率的に教育データを生成する手法

Intel Labsらはこの作業をビデオゲームで行うことで効率的にアルゴリズムを教育する手法を開発した。ビデオゲームから抽出したフレームでSemantic Segmentationする技法である。実際にこの技法を使ってSemantic Segmentation処理をしたものが下のグラフィックスである。入力したフレームは先頭の写真で、色がオブジェクトのクラスを示し、ピクセルレベルで処理されているのが分かる。道路は紫色、建物はレンガ色、空は灰色、乗用車は群青色、トラックは水色、バスは桃色などで示されている。クルマは目の前のオブジェクトの意味が分かり、安全に走行できる経路を見つけ出す。この技法では一枚のイメージを処理する時間は平均で7秒と極めて短いのが特長。

出典: Stephan R. Richter and Vibhav Vineet and Stefan Roth and Vladlen Koltun

ビデオゲームのフレームを大量に使う

この研究ではビデオゲームから25,000枚のフレームが抽出された (下の写真はその一部)。ビデオゲームはロスアンジェルスをモデルにしている。カリフォルニアの太陽が降り注ぐ昼間だけでなく、様々な気象条件のフレームが使われた。雨が降り注ぐ幹線道路や雨上がりの交差点のフレームが使われた。また、霧が立ち込めたシーンなども登場する。

想定しうるすべての環境を学習

幹線道路だけでなく、商店がひしめき合う路地裏の狭い道路のフレームも使われた。更に、一日のうち異なる時間帯のフレームが使われた。夜間にヘッドライトを点けたクルマが行きかうシーンや、夕方に空が赤く染まったフレームなどが使われた。自動運転車にとってはオブジェクトの識別が難しい条件である。人間は初めて走る道路でも運転できるが、アルゴリズムは想定しうるすべての環境を学習する必要がある。

人間との共同作業

システムはイメージをすべて区別できる訳ではない。Semantic Segmentationで色付けできるところと、できないところが混在する。このため専任スタッフがマニュアルで名前付けをする。システムは名前が付けられるとそれを学習し、次のフレームから自分で名前を付けることができるようになる。システムは学習を重ね、オブジェクトを判定し名前付けができるようになる。

ビデオゲームを使った教育技法に大きな期待

アルゴリズムをビデオゲームで教育できることが示された。ただ、ビデオゲームだけで教育するにはまだ制約もある。ビデオゲームのフレームだけでアルゴリズムを教育するとオブジェクトの認識率は43.6%とあまり高くない。そこで、実際に市街地を撮影した写真をミックスして教育すると認識率は65.2%と大きく向上した。写真だけで教育した方法の精度を上回り、ビデオゲームを使った教育技法に大きな期待が寄せられている。

出典: Stephan R. Richter and Vibhav Vineet and Stefan Roth and Vladlen Koltun

フレームだけでなく一連の動きを把握

論文は研究のロードマップについても言及している。今回の成果はビデオで捉えたイメージからオブジェクトを判別する技術「Class-Level Segmentation」を示している。次のステップではフレームを重ね、動画の中でオブジェクトを判定する。更に、オブジェクトの判定だけでなく一連の動きが持つ意味「Instance-Level Segmentation」を抽出する。つまり、路上で自転車を把握するだけでなく、ライダーが右腕を水平に上げると、それは右折するというサインであることを把握する。アルゴリズムは他車や人の行動の意味を理解できるようになる。

AIは犯罪行為を学習するのか

Grand Theft Autoという犯罪を繰り返すアクションゲームで運転技術を学習すると、自動運転車はこの環境にバイアスした認識能力を獲得すると懸念される。クルマが赤信号の交差点を猛スピード横切るシーンが頻繁に登場するが、違法行為をどうフィルタリングするかなどが課題となる。

高度に進化したビデオゲームを利用する

一方、Grand Theft Autoはゲーマーが街のシーンを自由に設定できる。気象条件や時間帯だけでなく、都市部、郊外部、工業地帯など、ゲーム環境を自由に設定できる。クルマが道にあふれるニューヨーク都市部や、霧が立ち込めて運転しにくいサンフランシスコなどを簡単に再現できる。雨が降る街での走行試験のためにKirkland (ワシントン州) に出向く必要はなくなる。高度に進化したビデオゲームが自動運転車のシミュレーション環境として注目されている。