カテゴリー別アーカイブ: 自動運転車

Drive.aiは未成熟なAIで安全な自動運転車を開発、テキサス州で実証試験を展開中

Drive.aiはシリコンバレーに拠点を置くベンチャー企業で、社名が示す通り、AIを基軸に自動運転技術を開発している。スタンフォード大学人工知能研究所発のベンチャー企業で、元所長Andrew Ngが役員として経営に参画している。Drive.aiはステルスモードでの開発を終え、2018年7月からテキサス州で実証実験を開始した。

出典: Drive.ai

開発コンセプト

当初、Drive.aiはAIをフル実装した”AI Car”の開発を目指していたが、AIの限界を把握し、AIの弱点を補完するクルマを開発した。業界最先端のAIとDeep Learning技法を実装しているが、AIだけでは安全なクルマを開発できない。このため、クルマと人間とのインターフェイスを工夫した安全なクルマをデザインした。

テクノロジー

自動運転車はミニバン「Nissan NV200」にセンサー(Lidar、カメラ、レーダー)を搭載した構成(上の写真)となる。Drive.aiはオープンソースを最大限に活用して自動運転ソフトウェアを開発した。ソフトウェアは「Robot Operating System」 (ROS、ロボットや自動運転車制御ソフト)をベースに構築され、画像認識システムは「Director」を使っている。Directorとはロボット向けのコンピュータビジョン開発環境で、DARPA Robotics Challengeでマサチューセッツ工科大学により開発された。

実証試験

Drive.aiはテキサス州フリスコ市と提携して、自動運転車の試験走行を進めている。街中のオフィス街で、事前に定めた経路を走行する自動運転シャトルとして運行している。Drive.aiはクルマが安全に走行するだけでなく、周りのクルマや歩行者も安全に移動できるよう工夫を凝らしている。自動運転車は人間とは違い特異な挙動をするため、クルマは目立つようデザインされ、周囲に注意を喚起している。同時に、セミナーなどを通じて、地域住人に自動運転車について教育を実施している。

インターフェイス

自動運転車はソーシャルインタラクション(社会とのコミュニケーション)の問題を抱えている。ドライバーは他のドライバーや歩行者と視線を交わし意図を伝達する。自動運転車は視線を交わす代わりに、車両前後にディスプレイを搭載し、クルマの意思を表示する。例えば、横断歩道では「Waiting for You to Cross」と表示し(下の写真)、歩行者が横断するために停止していることを示す。

出典: Drive.ai

遠隔監視

自動運転車は自律的に走行するが、監視センターで運行状態をモニターする。クルマは自動運転中に問題が発生すると、監視センターに連絡し、人間の支援を仰ぐ。これを「Tele-Choice」と呼び、自動で運行できない際は、クルマは安全な場所に停車し、オペレーターが走行方法を指示する。AIはこれらの情報を学習し、アルゴリズムは運転テクニックを向上させる。

オブジェクト認識

クルマは周囲のオブジェクトを把握し、経路を選択し、自動で走行する。Lidarで捉えたイメージは3Dポイントクラウドで、また、カメラで捉えたイメージはビデオ画像として車内のディスプレイに表示される(下の写真)。乗客はこの画面で、クルマは周囲をどう理解しているかが分かり、安心して乗ることができる。

出典: Drive.ai  

走行データを解析

走行状態を可視化したデータはAIソフトウェア開発や教育でも利用される。走行データは人間による運転とAIによる運転で収集される。これらのデータを早送りしたり、巻き戻したりしながら、走行状態を検証する。問題が発生すると可視化データで走行状態を再生し、原因を究明する手順となる。

自動運転シャトル利用法

クルマを利用する時は、スマホアプリで配車をリクエストし、指定された場所で乗車する。クルマに乗りドアを閉めて、スタートボタンを押すと発進する。クルマは指定されたコースを走行し、目的地まで乗客を運ぶ。クルマが走行するルートは事前に3Dマップが製作され、これをベースに自動走行する。

ロードマップ

当初、Drive.aiは高価なLidarを使わないで、低価格な光学カメラを使った自動運転車の開発を進めていた。カメラで撮影したイメージをDeep Learningの技法で処理し、オブジェクトを識別する。また、オブジェクト認識からクルマの経路計算までをAIで実装する予定であった。今回の発表では、高度なAIを実装したAI Carは登場しなかったが、背後で開発は継続していると思われる。次はどんなクルマが登場するのか、注視していく必要がある。

WaymoがUberを置き換える、自動運転車の四つの事業形態

Waymoは自動運転車の営業運行を目前に控え、事業形態を明らかにした。事業は、無人タクシー、無人トラック、無人乗用車、無人公共交通の四つの柱から構成される。無人タクシーについては、既に実証実験が始まっている。無人トラックの試験走行も始まり、また、自動運転車を直接消費者に販売する計画も明らかにした。更に、Waymoは無人公共交通について、住民のラストマイルを支える交通網とする事業モデルを発表した。

出典: Google

無人公共交通

Waymoは2018年7月、アリゾナ州フェニックスの公共交通機関「Valley Metro」と提携し、自動運転車で交通網を構成すると発表した(上の写真)。Valley Metroはバスや路面電車を運行しており、Waymo自動運転車が自宅とバス停や電車の駅を結ぶ移動手段となる。Waymoが住民のラストマイルを支える交通手段を提供する。

ラストマイル

この背景には、都市開発で交通網の整備が進むものの、それを有効に利用できていないことがある。フェニックスでは自宅とバス停や電車駅までの距離が長く、これが公共交通機関を利用するときの障害となっている。このギャップを効率的に埋める輸送機関が求められ、Waymo自動運転車がこの任務を担う。

効果の検証

当面は試験運用として、Valley Metro従業員を対象に、自宅から近くの交通機関まで送迎する。従業員はWaymoアプリを使い、Uberを使う要領で、クルマをリクエストすると無人タクシーが配車され、近くの駅まで送り届けられる。更に、このサービスを高齢者や体の不自由な人に拡充する。試験運用で有効性が確認されると、一般住民を対象としたサービスに進む。

無人タクシー

Waymoはフェニックスで自動運転車の走行試験を続けているが、2017年11月からは無人タクシーとして運行を開始した。当初は、安全のためにセーフティドライバーが搭乗していたが、2018年3月からは、文字通り無人のタクシーとして運行している。今では、生徒が通学の足として、また、住民が買い物に行くために、Waymoを利用している(下の写真)。

出典: Google

無人タクシー利用形態

毎日400人の住民が無人タクシーを利用している。利用者は、高齢者、高校生、子供がいる家族、身体障害者など幅広く、Waymoが日々の移動手段となっている。利用形態で一番多いのが通勤と通学で、また、レストランやバーに行くときも頻繁に利用される。スーパーマーケットに買い物に行くときの住人の足として機能している。

無人タクシーの中で

無人タクシー利用者は、移動中に何をしているかも明らかになった。クルマのなかで学校の宿題をしたり、メールや本を読むケースが多い。乗客は車内でWaymoの運行を監視しているオペレーターと話をすることができる。どの道を通って目的地に行くのかなど、質問があるときは車内に設置されているボタンを押してオペレーターに質問できる。

料金体系

Waymoは無人タクシー料金について公表していないが、Uberの料金が基準となることは間違いない。実証実験では料金は無料であるが、試験的にアプリに料金が表示される仕組みになっている。例えば、11.3マイルの距離を走ると19.15ドルと表示される。マイルあたりに換算すると1.69ドルとなり、これはUberXLの料金(マイルあたり1.55ドル)に匹敵する。WaymoはUberより安い料金体系を計画しているとも噂され、無人タクシーはライドシェア市場を直撃することになる。

無人タクシー事業展開

実際に、Waymoは無人タクシー事業を大規模に展開する計画を公表している。WaymoはFiat Chrysler Automobilesから62,000台のHybrid Pacifica Minivansを購入し、自動運転パッケージを搭載し、無人タクシーとして運行する(上の写真)。更に、WaymoはJaguar Land Roverから20,000台のI-PACEを購入し、プレミアム版の無人タクシーとして運行する(下の写真)。I-PACEはJaguarが開発した初の電気自動車(EV)で、お洒落なデザインとなっている。Pacifica Minivanを日常生活の足として使い、特別な日にリッチに移動するときにI-PACEに乗る、という使い分けになりそうだ。

出典: Google

無人トラック

Waymoは2018年3月、無人運転トラックを開発していることを明らかにした。車体はPeterbilt社のModel 389 (Class 8)で、ここにWaymoのセンサーとソフトを搭載している(下の写真)。センサーは自動運転車と同じもので、ソフトウェアも95%が同じであるとしている。自動運転車で培ってきた技術をそのまま使うことができるが、トラックはブレーキ操作、右折や左折、ブラインドスポットなどが異なるため、若干の手直しが必要となる。無人トラックはAtlanta(ジョージア州)で試験走行が展開されている。Atlantaは全米のロジスティクスのハブで、Waymoはここを拠点に無人トラックの開発を進める。

無人トラック応用分野

自動運転トラックは輸送会社のネットワークに組み込まれ、製造工場、配送センター、港湾などを結び、貨物を輸送する。ハイウェーで自動運転トラックの走行試験が進んでおり、セーフティドライバーが搭乗し、問題が発生すると運転を取って代わる。Waymoはホンダとの技術提携を発表したが、両社で配送向けの自動運転技術を開発していると言われている。

出典: Google

無人乗用車

Waymoは自動運転車を個人に販売するビジネスモデルも進めている。Waymoは、前述の、Fiat Chryslerと個人向け自動運転車の開発に関する協議を始めた。また、Waymoは、自動車メーカーの半分以上と、個人向け自動運転車に関する交渉をしているとも言われている。自動運転車は無人タクシーなどビジネスユースが中心となるが、消費者が自動運転車を所有したいという需要も大きいとみている。

ロードマップ

Waymoから四つのビジネスモデルが出そろい事業の骨格が明らかになった。無人タクシーが最初の事業で、アリゾナ州に続きカリフォルニア州で試験運行が実施される。無人タクシー商用運行時期は公表されていないが2020年と噂されている。商用運行が始まると、無人タクシーはライドシェアを直撃し、輸送形態が激変する。タクシーがUberに置き換わったように、今度はWaymoがUberを置き換えることになる。

Uber自動運転車が死亡事故を起こす、システムに重大な問題があるのか

Uber自動運転車が道路を歩いていた女性をはね死亡さる事故を起こした。事故原因については調査中であるが、Uberのシステムに重大な問題があるとの見方が出ている。この事故を受け、アリゾナ州は無期限でUberの走行試験を認めないことを発表。重大事故でUberへの信頼が大きく低下している。

出典: Uber

事故現場

事故は2018年3月18日、Tempe (アリゾナ州フェニックス郊外) で起こった。自動運転車Volvo XC90 SUVが、時速40マイルで走行中、女性をはねた。女性は自転車を押しながら、道路を左から右に横切っていた。クルマは減速することなく直進し、女性をはねて死亡させた。クルマにはセーフティドライバーが搭乗していたが、危険回避措置を取ることはなかった。(下の写真が事故現場で、女性は左側の中央分離帯の辺りから、右方向に歩いていた。Uberは一番右の車線を走っていた。)

出典: Google Street View

自動運転車のセンサー

Uber自動運転車は複数のセンサーを搭載し、クルマ周囲のオブジェクトを認識する (下の写真)。屋根の上に1台のLidar (レーザーセンサー) と7台のカメラを搭載している。また、レーダーを設置しており、周囲360度をモニターする。

出典: Uber

Lidarは歩行者を認識する

事故が起こったのは午後10時ころで、夜間走行中の出来事であった。周囲が暗くてもLidarはオブジェクトを認識し、歩行者ほどの大きさであれば確実に検知できる。UberはVelodyne社製のLidar (HDL-64E)を搭載しており人物を把握する (下の写真、Lidarが捉えたポイントクラウド)。Velodyneはコメントを発表し、このケースではLidarは女性と自転車を確実に認識できるとしている。また、回避措置を取る判断はLidarではなくシステムがするとも付け加え、Uber自動運転ソフトウェアに問題があるとの見解を示している。

出典: Velodyne

カメラもイメージを捉えている

Uberは屋根の上にカメラを7台搭載しており、前方のカメラは近距離と遠距離をカバーする。カメラは前のクルマが減速するのを把握し、また、歩行者を認識する。更に、信号機や道路標識を読み取るために使われる。事故直後のニュース報道を見ると、夜間であるが道路照明灯が設置されており、一定の明るさであることが分かる。カメラの性能は公表されていないが、ダイナミックレンジが広く、女性を捉えている可能性が高い。

ダッシュボードカメラ

自動運転を制御するカメラとは別に、ダッシュボードにモニター用のカメラが備え付けられ、前方と車内を撮影していた。事故捜査に当たっている警察 (Tempe Police Department) は、ダッシュボードカメラの映像を公開した。これを見ると歩行者は左から右に道路を横断していることが確認できる (下の写真)。また、クルマは減速しないでそのまま直進したことも分かる。

出典: Tempe Police Department

セーフティドライバー

車内を撮影したビデオを見ると、セーフティドライバーは前方を見ておらず、視線を下に落としていたことも判明した。前を注視し問題が発生するとそれを回避するのがセーフティドライバーの任務であるが、この事故ではこの措置が取られなかった。

レーダーは補助的な役割

Uberはクルマ周囲360度を見渡せるレーダーを搭載している。レーダーは走行中のクルマや停車しているクルマなどを把握する。レーダーはドップラー効果を利用して、オブジェクトの移動速度を把握する。しかし、レーダーの解像度は低く、オブジェクトの位置をピンポイントで特定することはきない。このため、一般にレーダーは単独で使われることはなく、レーダーが歩行者を捉えても、アルゴリズムはこの情報だけでブレーキをかけるようにはプログラムされていない。

事故調査が始まる

UberのLidarは確実に歩行者を認識しており、カメラもその画像を捉えている可能性が高い。それにもかかわらず、クルマはなぜ回避措置を取らなかったのか、議論を呼んでいる。ここが事故原因を解明するポイントとなる。現在、国家運輸安全委員会 (National Transportation Safety Board、NTSB) が事故調査を進めている (下の写真)。NTSBは航空機事故だけでなく、交通事故でも重要な案件を担当する。自動運転車事故のように、クルマのソフトウェア解析が求められる高度な案件は、NTSBが原因を究明する。

出典: National Transportation Safety Board

システムに問題か

NTSBによる調査結論は出ていないが、Uberの自動運転システムに重大な問題があるとみられている。New York TimesはUberのDisengagement (自動運転機能解除措置) の頻度は13マイルと報道している。Disengagementとは、自動運転車が問題に遭遇し、セーフティドライバーが自動運転モードをを解除する措置を示す。つまり、Disengagementを実行することは、自動運転車が危険な状態にあることを意味し、不具合の件数とも解釈できる。Uberではこれが13マイル毎に発生し、システムはまだまだ未熟な状態にあることが分かる。一方、WaymoのDisengagementの頻度は5,600マイルで、両者の製品完成度には大きな開きがある。

アリゾナ州知事による試験運行停止命令

アリゾナ州知事 (Doug Ducey) は、自動運転車の市街地走行試験に寛大であるが、今回の事故を受けて、Uberに試験走行を停止する命令を下した。更に、事故の原因は間違いなくUberにあるとも述べ、厳しい姿勢で対応していくことを明らかにした。これ以上のコメントはないが、Uberはアリゾナ州で自動運転車走行試験を再開できないとのうわさも広がっている。州知事は、事故の少し前に、Waymo無人タクシーの運行を認めたばかりである。この事故により、アリゾナ州だけでなく他の州でも、自動運転に対する規制が厳しくなると見られている。

自動運転車の開発方針

Uber自動運転車事故は、システムが不安定であるにもかかわらず、セーフティドライバーが注意を怠り、回避措置をとらなかったことに原因がある。ネット上には、Uber自動運転車が市街地を軽快に走行しているビデオがたくさんあり、技術が完成したようにも思える。しかし、実際にはシステムは未完成で、市街地を走るにはリスクが高いことを認識させられた。Uberはこれから自動運転車開発をどう続けていくのか、大きな判断を迫られる。

Waymo自動運転車がついに完成!!無人タクシーの営業運転を開始

Waymoは無人タクシーの営業運転を始めたことを明らかにした。スマホでクルマを呼ぶと、ドライバーが搭乗していないWaymo自動運転車がやって来る (下の写真)。Google・Waymoは2009年から自動運転車を開発しているが、ついにこの技術が完成するに至った。

出典: Waymo

無人タクシーとして運行開始

Waymoはアリゾナ州フェニックスで自動運転車の実証実験を続けている。これは「Early Ride Program」と呼ばれ、2017年11月からは無人タクシーとしての試験走行が始まった。しかし、無人タクシーといっても、安全のためにセーフティドライバーが搭乗し、緊急事態に備えていた。2018年3月からは、セーフティドライバーが搭乗しない、文字通り無人タクシーとして運行を開始した。

安全性をPRするビデオ

これに先立ち、Waymoは無人のクルマがどのように安全に走行できるのかを説明したビデオを公開した。ビデオはX-View形式で、クルマの周囲360度を見渡すことができる。スマホでこのビデオを見ると、クルマの前方だけでなく、体を回転させると側面から背後まで見ることができる。

クルマが認識する世界

ビデオはクルマに搭載されているセンサーが周囲のオブジェクトをどのように捉えるかを中心に構成されている。つまり、クルマのセンサーは何を見て、どのようにハンドルを切るのかを、グラフィカルに説明している。

Lidarが捉えるイメージ

クルマの眼の中心はLidar (レーザーセンサー) で、三種類のモデルが搭載されている。「Short-Range Lidar」はクルマの前後左右四か所に設置され、車両近傍のオブジェクトを認識する。クルマのすぐ近くにいる小さな子供などを把握する。解像度は高く、自転車に乗っている人のハンドシグナルを読み取ることができる。(下の写真、路上の緑色のポイントクラウドの部分。)

「Mid-Range Lidar」と「Long-Range Lidar」は屋根の上のドームの内部に搭載され、中長距離をカバーする。後者は可変式で、レーザービームがスキャンする角度を変えることができ、特定部分にズームインする。これらのLidarは周囲の車両や歩行者など把握し、最も重要なセンサーとなる。 (下の写真、青色のポイントクラウドの部分。)

出典: Waymo

レーダーの機能

クルマはレーダーを搭載しており「Radar System」と呼ばれ、ミリ波を利用して路上のオブジェクトを把握する。ミリ波は水滴の中でも移動でき、雨や霧や雪のなかでも機能する。また、日中だけでなく夜間でも使うことができる。クルマの屋根の四隅に搭載され、周囲のオブジェクトまでの距離とその移動速度を把握する。 (下の写真、走行中や駐車中のクルマまでの距離と速度を表示。)

出典: Waymo

高精度なカメラ

カメラは「Vision System」と呼ばれクルマの屋根のドームに格納されている。ダイナミックレンジの広いカメラの集合体で、8つのモジュール から構成される。カメラは信号機や道路標識を読むために使われる。 (下の写真、信号機を把握している。) モジュールは複数の高精度センサーから成り、ロードコーンのような小さなオブジェクトを遠方から検知できる。ダイナミックレンジが広く、暗いところから明るいところまでイメージを認識できる。

出典: Waymo

PerceptionとPrediction:周囲の状況を理解

Waymoは複数のセンサーの情報を統合して周囲の構造を把握する。交差点では、周囲のクルマ、自転車、歩行者などのオブジェクトを把握する。また、信号機とその色を把握してそれに従う。更に、横断歩道や道路の路肩なども把握する。ソフトウェアは、これらオブジェクトが移動している方向、速度、加速度などを推定する。(下の写真、クルマは青色の箱で示され、その距離と移動速度を把握。クルマの走行経路を予想して、それを青色の実線で示す。右前方のクルマは「Police Car」と認識。歩行者は茶色の箱で示される。信号機は白色の枠で示され、「STOP」か「GO」かを認識する。)

出典: Waymo

Planning:走行経路を決定

クルマ周囲のオブジェクトの動きを予想して、ソフトウェアは最適な走行ルートを決める。具体的には、Waymoの進行方向、速度、走るレーン、ハンドル操作を決定する。センサーが認識できる範囲は広く、フットボールコート二面先のヘルメットを識別できる。(下の写真右側、Waymoが認識する周囲のクルマとその予想進行経路。これを元にアルゴリズムはWaymoの進行経路を算出する。それが緑色の実線で表示されている。下の写真左側、同じシーンをシミュレータで表示したもの。)

出典: Waymo

安全運転をプログラミング

ソフトウェアは「Defensive Driving」としてプログラムされている。これは安全サイドのプログラミングを意味し、自転車と十分間隔を取るなど、慎重な運転スタイルに設定されている。運転スタイルがクルマの性格を決めるが、Waymoは安全第一にプログラミングされている。(下の写真、左折中に前方から自転車が接近してきたケース。自転車は桃色の箱で示され、距離は50フィートで速度は毎時9マイル。自転車の予想走行ルートはピンクの実線で示される。自転車は直進するか、右折するオプションがあるが、アルゴリズムは直進する可能性が大きいと判定。このため、Waymoは路上で一旦停止する判断を下した。)

出典: Waymo

ビデオから読み取れる自信

Waymoが公開したビデオを見ると、アルゴリズムは何を見て、どのように運転しているのか、その一端を窺うことができる。そこから、Waymoの技術に対する自信も読み取れ、自動運転車が完成の域に入ったことを感じる。

開発はこれからが本番

ついに、無人タクシーが市街地を走行できるようになったことの意味は大きい。ただ、走行できる範囲はアリゾナ州フェニックスの一部に限定されている。ここは砂漠地帯に作られた街で、天気は良く、自動運転車にとって走りやすい環境である。Waymoは全米の25都市で試験走行を展開しており、難易度が高い地域での無人タクシー運行が次のステップとなる。多くの難題があり、自動運転車の開発はこれからが本番となる。

自動運転技術「Baidu Apollo」とは、オープンソースの手法でクルマを開発

Baiduは2017年から自動運転技術「Apollo」を公開している。Apolloはソフトウェアとハードウェアから構成され、通常のクルマにこれらを搭載して自動運転車を開発する (下の写真)。ソフトウェアやデータが公開されており、中国で自動運転車開発ラッシュが始まった。

出典: Baidu

Apollo開発環境

Apolloは自動運転車の開発環境を提供するもので四階層から構成される。「Cloud Service」は文字通りクラウドサービスで、ここでシミュレーション環境など基幹機能が提供される。「Apollo Open Software Stack」は自動運転ソフトウェアで、これらがオープンソースとして公開されている。「Reference Hardware Platform」はクルマに搭載する標準プロセッサやセンサーなどを定義する。「Reference Vehicle Platform」はベース車両を定義したもので、ここにApolloを搭載し自動運転車を生成する。

ソフトウェアモジュール

Apolloソフトウエアは次の三つのモジュールから構成さる。Localization (位置決定)、Perception (オブジェクト把握)、Planning (走行経路算出) で、これらが自動走行の基礎技術を提供する。企業はこれらのモジュールを使い製品を開発する。また、これらのモジュールを改造して、企業独自の製品に仕立てることもできる。

Localization

このモジュールは作成されたHDマップを参照し、GPSとIMU (Inertial measurement unit、慣性計測装置) を使い、高精度でクルマの位置を決定する。

Perception

このモジュールはクルマ周囲のオブジェクトを把握する機能を持つ。クルマに搭載されたセンサー (Lidar、カメラ、レーダー) が捉えたデータを解析し、オブジェクトの種別、位置、移動速度、進行方向を特定する。ここでDeep Learningの技法が使われている。アルゴリズムはタグ付きのデータで教育されており、高精度でオブジェクトを判定できる。

Perceptionは二つのモジュールから構成される。「Obstacle Perception」はLidarとレーダーで捉えたデータを解析し障害物を特定する (下の写真)。LidarのデータはConvolutional Neural Networkで解析し、オブジェクトの特性を把握する。「Traffic Light Perception」は信号機を把握する。3Dマップにおける信号機の位置を参照し、カメラで捉えたイメージからその場所を特定し、信号機の色を把握する。

出典: Baidu

Planning

このモジュールはリアルタイムで周囲の交通の状態を把握し、最適な進行ルートを算定する (下の写真)。まず、周囲のオブジェクトの移動方向を推定し、次に、オブジェクトに特有な挙動を把握し (クルマや自転車など)、最後に、最適な進行経路を算出する。このモジュールはアクセスが制限された道路 (高速道路のように進入が制限された道路) で使うことができる。また、昼間だけでなく夜間にも使うことができる。

出典: Baidu

Simulation

Baiduは自動運転技術開発のためにシミュレーション環境を提供している。この環境はMicrosoft Azureの上に構築され、開発に必要な次のモジュールを提供する。

  • Scenarios:シミュレーションの条件を変え異なるシナリオを生成する。道路のタイプ、路上の障害物、運転方法、信号機能状態を変えることができ、異なる環境を作り出す。
  • Execution Models:上述のシナリオを使い、開発した自動運転モジュールを実行し、その機能を検証する。
  • Automatic Grading System:試験した自動運転モジュールの完成度を評価する。衝突検知、信号認識、速度制限などの試験ができ、合格か不合格化をシステムが判定する。
  • 3D Visualization:路上におけるクルマの走行状態を可視化してモニターに表示する。

Scenarios

上述の通りシミュレータは様々なシナリオを取り揃えている。信号機のある道を直進 (Go Straight w/ Lights)するというシナリオや、信号機のある交差点を左折 (Turn Left (Intersection w/ Lights) するシナリオ (下の写真) など、100種類のシナリオが用意されている。エンジニアは開発した自動運転車を様々なシナリオで走行させアルゴリズムを検証する。

出典: Baidu

自動運転技術API

開発者はApolloが提供するAPI (自動運転機能のライブラリ) を使って自動運転車アルゴリズムを開発する。各メーカーはこれらAPIを使って自動運転車を開発する。また、公開されているソフトウェアを改造して、独自の機能を持つ自動運転車を開発することもできる。上述の通り、開発したアルゴリズムを様々なシナリオで試験して、アルゴリズム実行結果 (合格・不合格) を判定する手順となる。

多種類のデータ

自動運転アルゴリズム開発や研究のために、多種類のデータが公開されている。開発者や研究者はこれらのデータを使ってアルゴリズムの教育や研究を実施できる。公開されているデータの種類はSimulation Scenario Data (シナリオ)、Annotation Data (タグ付きデータ)、Demonstration Data (デモ向けデータ)などである。

Lidar Point Cloud

Annotation Dataの中にLidarが捉えたデータ (Lidar Point Cloud) がある (下の写真)。クルマ周囲のオブジェクトはこのLidar Point Cloudを解析して判定する。Lidarが捉えたオブジェクトは種別ごとにタグ付けされ、これらデータが公開されている。データは、歩行者、自動車、自転車、その他など区分され、合計で2万フレームが公開されている。1万枚はアルゴリズム教育のために、1万枚はアルゴリズム試験のために使うことを想定している。

出典: Baidu

Baiduが勢力を拡大

このように中国ではBaiduが主導するApolloが大きく勢力を拡大している。Baiduが自動運転技術のAI開発を担い、その他の技術は参加企業が共同で開発する体制となる。ApolloプロジェクトにはVelodyne (Lidarセンサー) やNvidia (車載プロセッサ) やTomTom (マップ技術) など、自動運転車のキーコンポーネントを提供するベンダーが参加している。世界の自動運転車開発は米国、欧州、中国の三極体制に向かいつつある。