カテゴリー別アーカイブ: 自動運転車

AmazonはZooxを買収し自動運転車市場に参入、サンフランシスコでロボタクシーの試験走行を公開

Amazonが買収したZooxはサンフランシスコでロボタクシーの試験運転を公開した。クルマはレベル5の完全自動運転車で、ドライバーが搭乗しないロボタクシーとして、市街地における住民の足となる。Zooxはミニバス形状で(下の写真)、市街地の狭くて込み合った道路を自動で走行する。Amazonはこの他に、自動運転SUVの開発を進めており、次のコア事業は自動運転車であることが鮮明になった。

出典: Zoox

クルマの全体構造

Zooxはレベル5の完全自動運転車で、ドライバーが搭乗しないで、バイクや歩行者で込み合う市街地を走行する。Zooxは四輪ステアリングで、斜めに走ることができ、狭いスペースに駐車して乗客を降ろすことができる。また、前後対象のデザインで、後ろ方向に走ることができる。駐車スペースからバックではなく前進で発進できる。対称構造であるため前後左右で同じ部品を使え、パーツ点数が大幅に少なくなる。

車内のデザイン

Zooxは西部劇で登場するステージコーチをほうふつさせるデザインで、車内に二人掛けの座席が向き合って配置されている(下の写真)。乗客は座席に座り、シートベルトを締め、スタートボタンを押すとクルマは目的地に向かって走行する。クルマを呼ぶときには、ライドシェアの要領で、スマホアプリで現在地と目的地を入力する。

出典: Zoox  

設計コンセプト

Zooxは他の自動運転車とは異なりゼロから開発されている。車体は自動車メーカーから供給されるのではなく、独自の設計で無人タクシーとしてデザインされている。自動運転のコア技術であるAIやソフトウェアも独自で開発され、システムはNvidiaのAIプロセッサで稼働する。当初はセダンタイプのデザインであったが(下の写真)、現在は、乗り降りしやすいステージコーチ型となった(先頭の写真)。

出典: Zoox  

AmazonがZooxを買収

このため、大規模な開発資金と多数のエンジニアが必要となり、Zooxは開発に行き詰り、企業を売却する判断を下した。このタイミングでAmazonは2020年6月に買収を発表し、ZooxはAmazonの資金で開発を継続している。これにより製品開発が加速され、2020年12月、Zooxは自動運転車を公開し、サンフランシスコ市街地を走行するデモが実施された。

センサー

ZooxはカメラとLidarとレーダーをクルマの四方に搭載し、これをAIで解析して自動運転を実現する(下の写真)。周囲360度の視野を持ち、毎時75マイルで走行することができる。カメラはオブジェクトの色を識別し、信号などを把握する。レーダーは周囲のオブジェクトを把握し、Lidarはこれを3Dで高精度で認識する。自動走行する前に、Lidarで道路と標識などをセンシングし、高精度3Dマップを作成しておく。

出典: Zoox  

製品ポジショニング

Zooxはステルスモードで開発し、その技術は謎に包まれていたが、Amazonが買収してからは製品化への歩みを速め、クルマの全貌が明らかになった。クルマのポジショニングも明確になり、市街地における短距離輸送に特化したデザインとなっている。

Bezosの戦略

この背後にはJeff Bezosの自動運転車に関する長期的なビジョンがある。Bezosは自動運転車とEVが次の大きな市場になるとして、相次いで資金を投資している。2019年2月、自動運転スタートアップ「Aurora」に大規模に出資し業界の注目を集めた。その直後、ピックアップトラックを開発するベンチャー「Rivian」に出資した。BezosはCEOを退任し、取締役会長になり、これからは新規事業の育成に時間を費やすと述べている。Zooxの買収で自動運転車が次のコア事業となることが鮮明になり開発が加速されることとなる。

テスラの完全自動運転車はソフトウェア事業、ロボタクシー向けクラウドが会社の収益の半分を稼ぐ

テスラは今年中にレベル5の完全自動運転車を出荷する。クルマにはそれに必要なハードウェアが搭載され、ソフトウェアの更新で完全自動運転車となる。このソフトウェアはFull-Self Driving(FSD)と呼ばれ、現行車種にはそのベータ版が搭載されている。ベータ版から正式版に機能アップするために、AI開発が急ピッチで進んでいる。

出典: Tesla  

完全自動運転車

テスラCEOのElon Muskは、2020年度第四四半期の決算発表で、多くの時間を割いて自動運転技術について説明した。テスラの自動運転技術はFSDと呼ばれ、現行車両にはそのベータ版が搭載されている。Muskは今年中に完全自動運転車が完成するとの見通しを示した。FSDが出荷されるとクルマはレベル5の自動運転機能を持ち、ドライバーの介在無しにクルマは自動で走行する。

ロボタクシー

完全自動運転車が登場するとクルマの利用法が劇的に変わる。ドライバーはクルマを利用しない時間帯は、これをロボタクシーとして運行する。クルマが無人のUberとなり、乗客を拾い目的地に送り届ける。これにより、オーナーは臨時収入を得ることができ、その一部をサブスクリプションとしてテスラが徴収する。テスラはロボタクシーを運行するクラウド「Tesla Network」を提供し、オーナーはこのクラウドにクルマを接続しタクシー事業を展開する。(下の写真、テスラはステアリングのないロボタクシー専用車両をデザイン)

出典: Tesla  

車両販売はソフトウェア事業

Muskによると、テスラの事業は車両販売に加え、ロボタクシー運用によるサブスクリプション収入が大きな収益源になる。Muskは車両販売による収入が500億ドルで、ロボタクシーの収入が同額の500億ドルになるとみている。ロボタクシーの部分のコストは小さく、収益の殆どが利益になる。つまり、完全自動運転車が完成すると、自動車販売はクラウドによる収益が大きな部分を占め、ソフトウェア事業となる。

テスラの収益構造

Muskはロボタクシー収益の詳細を明らかにしていないが、今までの情報を元に計算すると次のようになる。ロボタクシーの料金は0.5ドル/マイルで、Uber料金の半額に設定される。ロボタクシーが年間45,000マイル走行すると、売上金額は22,500ドルとなる。テスラはサブスクリプション料金としてこの30%を徴収し6,750を得る。これを6年間運用すると、テスラの収入は40,500ドルとなる。Tesla Model 3(先頭の写真)の車両価格は47,900ドルで、ロボタクシーが車両価格と同等の収入を上げることになる。

FSDベータを支えるAI

ロボタクシーを運行するためにはクルマがレベル5の完全自動運転車となることが前提条件となる。このため、テスラはFSDのニューラルネットワークを大幅に改良しこれを目指している。現行モデルFSDベータでは、ニューラルネットワークはカメラが捉えたイメージを解析し、オブジェクトを把握する。クルマは周囲に8台のカメラを搭載しており、AIはそれぞれのカメラが捉えた画像を解析する。

FSD最終版の仕組み

これに対して、FSD最終版はカメラが捉えたビデオを解析する。これは「4D Data」と呼ばれ、ステレオカメラの3D画像が時系列に繋がる動画を解析し、そこからオブジェクトの種類を把握し、次の動きを予測する。ニューラルネットワークには8台のカメラが捉えたビデオが同時に入力され、クルマ周囲の状況をリアルタイムに把握する。これにより、FSDは人間が運転するより100%から200%安全なクルマとなる。(下の写真、8台のカメラが捉えた画像)

出典: Tesla  

Dojo Supercomputer

ニューラルネットワークがビデオを解析するためには、タグ付きビデオでアルゴリズムを教育する必要がある。この教育システムは「Dojo Supercomputer」と呼ばれ、ここでシステムはビデオからタグ(ビデオの内容説明したテキスト)を自動で生成する。テスラの強みはビデオの量で、現行車両が撮影したビデオ画像がクラウドにアップロードされ、これをDojo Supercomputerでタグ付けする。タグ付けされたビデオを使ってFSDのニューラルネットワークを教育する。

現行FSDベータの評価

現行車両にはFSDベータが搭載され、限定的な自動運転機能を提供している。調査機関Consumer Reportによると、FSDは名前が示す自動運転機能には至っておらず、問題点が多いと指摘する。具体的には:

  • 「Navigate on Autopilot」は自動でハイウェイに乗り降りする機能であるが、目的の出口で降りないケースがある。また、込み合ったハイウェイで自動運転機能が解除される。
  • 「Traffic Light and Stop Sign Control」は信号のある交差点や一時停止標識で停止する機能であるが、停止せず直進した事例を報告している。

FSDベータは名前の通り、未完成の自動運転技術で、ドライバーは非常事態に備えスタンバイしておく必要がある。TeslaはAIを大改造することで、完全な自動運転技術を目指している。(下の写真、Auto Summon機能を使うとクルマが駐車場から玄関前に自動で走行しドライバーを迎える。)

出典: Tesla  

FSDベータ版を最終版にアップグレード

上述の通り、FDSベータはAIがクルマに搭載されたカメラの静止画像を解析する手法で自動運転機能を実現する。これに対し、FSD最終版はAIが格段に強化され8台のカメラの動画を同時に処理することで自動運転を実現する。Muskはこの機能はSuperhumanで、人間の運転技術を大きく上回ると説明した。Lidarを使わないでカメラでレベル5の自動運転車ができれば自動車産業にとって大きなブレークスルーとなる。

自動車産業はクラウド事業となるのか

テスラの株価が急騰しここ一年で700%近く上昇した。テスラの量産体制が整い、好調な業績を反映しているが、株価はこれ以上に上昇している。Muskによると、株価はテスラのロボタクシー事業を反映していると説明。テスラは車両販売の他に、ロボタクシー向けクラウドのサブスクリプション収入があり、株価をこれを先取りしている。自動車産業はクラウド事業となるのか市場が注目している。

Teslaは完全自動運転車を年内に投入すると表明、AIがクルマを運転する仕組みと解決すべき課題も判明

Tesla CEOのElon Muskは中国・上海で開催されたAIイベントで、完全自動運転車を今年末までにリリースすることをビデオメッセージで表明した。これは「Full Self-Driving」と呼ばれ、レベル5の自動運転機能で、ドライバーの介在無しにクルマが自律的に走行する。また、これを支えるAIについて、基本機能は問題ないが、まだ解決すべき課題があることも明らかにした。

出典: Tesla  

自動運転車の方式

自動運転技術は完成度が上がり、無人走行の試験が進んでいるが、クルマはどこでも走れるわけではない。自動運転車は事前に定められた域内だけで運行できる設計で、域外では自動走行できない。これに対しTeslaは、AIが人間のドライバーのように視覚(カメラ)の映像だけでハンドルを操作し、初めての街でも自律的に走行できる。これを支えているのが高度なAIでその構造と課題が明らかになった。

Waymoのアプローチ

Waymoなど多くの自動運転車はLidar(レーザーセンサー)とカメラを組み合わせて周囲の状況を把握する。更に、走行前にその地域の詳細なマップ(Base Map)を作成しておき、クルマはこれに沿って自動走行する。マップは仮想レールともいわれ、クルマは事前に定められたコースを忠実に走行する。

Teslaのアプローチ

これに対して、Teslaはカメラだけで自動運転機能を実現する極めて先進的なアプローチを取る。また、詳細マップは不要で、AIが人間のドライバーのように、初めての街でも運転できる。つまり、メーカーはクルマを販売するだけで、詳細マップの開発や更新は不要となり、事業規模を制約なしに拡大(Scalability)できる。Teslaは自動運転車事業を成功させるためにはこのアプローチしかないと主張する。

Teslaの自動運転技術

Teslaは「Autopilot」と「Full Self-Driving」の二種類の自動運転機能を提供している。Autopilotは運転支援機能で、ドライバーに代わりソフトウェアがクルマを制御する。クルマは周囲の車両の速度に合わせて走行し、車線を認識しレーンをキープする。Autopilotは限定的な自動運転機能で、ドライバーは両手をステアリングに添えておく必要がある。Autopilotはすべての車両に搭載されている。

Full Self-Driving

Full Self-Drivingは高度な自動運転機能で、高速道路や市街地を自動で走行する。高速道路では、入り口から出口まで自動走行し(Navigate on Autopilot)、車線変更も自動で行う(Auto Lane Change)。また、自動で駐車する機能や、駐車場からドライバーのところに自動で移動する機能もある(Smart Summon)。更に、市街地においては信号を認識し、自動で走行する。これは「Autosteer on City Streets」と呼ばれ、完全自動運転車の中核機能となる(下の写真)。この機能は2020年末までにリリースされる予定で、これでレベル5の完全自動運転車が完成する。

出典: Tesla  

完全自動運転車がデビュー

市販されているクルマはFull Self-Drivingに必要なセンサーやプロセッサ(FSD Computer)を搭載しており、ソフトウェアのアップデートで完全自動運転車となる。クルマを購入する際にFull Self-Drivingを選択するとこの機能を使え、価格は8,000ドルに設定されている。Full Self-Drivingのリリース時期は当初の予定から遅れたが、ついに年内に製品が登場する見込みが濃厚となった。他社が苦戦する中でTeslaが先行して完全自動運転車を市場に投入することになる。

【技術情報:Full Self-Drivingの仕組みと課題】

システム全体の構造

Teslaは自動運転システムについて明らかにしており(下の写真、左側)、AIのアルゴリズム教育から実行までを統合して実行する。市販車両はカメラで路上のオブジェクトを撮影するが、これらはデータベース「Data」に集約される。これを使ってアルゴリズムを教育(「Dojo Cluster」と「PyTorch Distributed Training」)し、その結果を検証「Evaluation」する。教育されたアルゴリズムはオンボードコンピュータ「FSD Computer」に実装されクルマを制御する。これに加えもう一つのAIがこの背後で稼働し、密かに自動運転の訓練を積んでいる(Shadow Mode)。

出典: Tesla  

ニューラルネットワークの構造

ニューラルネットワークは「HydraNet」と呼ばれ、カメラが撮影した映像を解析する。HydraNetは共通機能「Shared Backbone」に特定機能を搭載した構造となる(上の写真、右側)。共通機能はイメージ判定ネットワーク(ResNet 50)で構成され、ここでオブジェクトの種別を判定する。この情報を元に、特定機能がオブジェクト判定(Objects)や信号機の読み取り(Traffic Lights)などを行う。共通機能に複数の特定機能が首のようについており、その形が妖怪ヒドラに似ていることから、HydraNetと呼ばれる。

ニューラルネットワークの機能

HydraNetは道路周辺のオブジェクトを認識し、信号機や車線などを把握する。クルマはこの情報を元にレーンをキープし、赤信号で停止する。HydraNetは単体で使われるだけでなく、複数のネットワークを組み合わせ、複雑なタスクを実行する。例えば、二つのカメラが撮影した映像を二つのHydraNetで処理し、それを重ね合わせてオブジェクトを3Dで把握する(下の写真)。この他に、複数のHydraNetで道路のレイアウトを把握することもできる。

出典: Tesla  

AI専用プロセッサ

TeslaはAI処理専用プロセッサ「FSD Computer」(下の写真、左側)を独自で開発し、これをクルマに搭載し、AIを高速で処理する。このボードは二つのチップ「FSD Chip」を搭載し、チップにはAI処理装置「NPU」を積んでいる。クルマに搭載されているAIの数は多く、これらを処理するためには高性能AIプロセッサーが必要になる。クルマで48のニューラルネットワークが稼働し、1,000種類の判定結果(Tensor)を出力する。高速で走行するクルマはリアルタイムでこれらのAIを実行することが必須要件となる。

出典: Tesla  

クルマがオブジェクトを認識

クルマに搭載されたHydraNetは走行中にカメラが撮影した映像から、そこに映っているオブジェクトを判定する(下の写真、左側)。クルマや歩行者などの他に、道路の車線や道路標識などを把握する。このケースは一時停止標識「Stop」を検知した状況で、HydraNetが正しく道路標識を認識できるかがクルマの安全性に結び付く。

出典: Tesla  

アルゴリズム教育

このため、HydraNetは写真に写っている市街地の様々なオブジェクトを使って教育される。市販のクルマは搭載しているカメラで走行中に車線や道路標識や歩行者など数多くのオブジェクトを撮影し、これらの映像はTeslaのクラウドに送信される。Teslaは、写真に写っているオブジェクトの名称を付加し(上の写真、右側)、これを教育データとして使う。市販車両が撮影した大量の映像が教育データとして使われ、ドライバーはAI教育に寄与していることになる。

Data Engine

アルゴリズム教育では如何に多種類のデータを揃えるかでAIの認識精度が決まる。例えば、一時停止標識の見え方は様々で、街路樹に隠れて見えにくいケースや、夜間の暗がりで判別しにくいものがある(下の写真、左側)。Teslaは収集した映像の中から、異なるケースのオブジェクトを見つけ出すAI「Data Engine」を開発した。Data Engineは路上で起こりえる様々なケースを見つけ出し、アルゴリズムの判定精度を向上させる。

出典: Tesla  

データのロングテール

つまり、HydraNetの教育ではロングテールのデータを如何に大量に収集できるかで判定精度が決まる。クルマは走行中に考えられない事象に出くわす。トラックの荷台から椅子が落ち、クルマで犬を散歩させているシーン(上の写真、右側)に遭遇する。Data Engineはこれら非日常的なシーンを見つけ出し、これらのデータでアルゴリズムを教育すると、めったに起こらない事象にも対応できるAIが完成する。TeslaによるとAI開発の難しさはアルゴリズムではなく、これらロングテールのデータを揃えることにあるとしている。

Software 2.0

クルマのソフトウェアはAIとコーディングの部分で構成される。初期のソフトウェア(Software 1.0)はAIの判定結果を人間がC++でコーディングしてオブジェクトの意味を判断していた。最新のソフトウェア(Software 2.0)では、AIが独自でオブジェクトの意図を把握する。今ではソフトウェアに占めるAIの部分が大きくなり、入力から出力までプログラムの介在なく、AIが処理を担う方向に進んでいる。(下の写真、割り込みを検知する事例:Software 1.0ではルールをコーディングしてこれを検知(左側)、Software 2.0ではAIが事例を学習してこれを検知(右側)。)

出典: Tesla  

Bird’s Eye View Network

クルマが走行中に走行経路を予測するために専用のAI「Bird’s Eye View Network」が開発された。これは複数のカメラの映像(下の写真、上段)を繋ぎ合わせ、車線や道路の端や移動オブジェクトを把握し(下の写真、下段:青色が車線で赤色が道路の端を示す)、安全に走れるルートを算出する。クルマはこの解析データを元に走行する車線を決め、このネットワークが自動走行のブレインとなる。

出典: Tesla  

自動運転技術の最後の壁

Bird’s Eye View Networkの精度が自動走行できる範囲を決める。実社会には上の事例のようにシンプルな交差点だけでなく、複雑な交差点が多数存在する。人間でもうまく運転できない場所は多く、走行経路をニューラルネットワークが如何に正確に予測できるかがカギとなる。こがTeslaの自動運転技術開発の大きな壁となり、これを乗り越えないと完全自動運転車は完成しない。AIがカメラだけで道路の形状を認識、走行経路を算定できるのか、学術研究のテーマとしても大きな意味を持っている。このため、Teslaは大学に呼びかけ、共同研究を通じブレークスルーを目指している。

Lidar対カメラ

自動運転車のアーキテクチャは二つに分かれ、WaymoのようにLidarを使う方式と、Teslaのようにカメラを使う方式になる。前者が主流でクルマはLidarとカメラを併用して自動走行を実現する。一方、Teslaは独自の道を歩み、カメラだけでこれを実現する。ハードウェアの助けを借りないでソフトウェアでこれを実現するもので、AIの開発成果が成否を握る。この方式が成功すると、製造コストは劇的に下がり、自動運転車が幅広く普及することとなる。Teslaはハイリスク・ハイリターンなルートを進んでいる。

Alphabet配下のWaymoとDeepMindが連携すると、AIが自動運転アルゴリズムを生成

Alphabet子会社であるWaymoとDeepMindは共同で、AIで自動運転アルゴリズムを生成する技法を開発した。自動運転車はニューラルネットワークで周囲のオブジェクトを把握し、その挙動を予想し、クルマの進行方向を決める。今までは、研究者がニューラルネットワークを開発してきたが、この技法を使うとAIがニューラルネットワークを生成する。AIがAIを生成する技法は既に登場しているが、これを自動運転車に適用したのはWaymoが初となる。

出典: Waymo

アルゴリズム教育

自動運転車はニューラルネットワークが安全性を決定する。Waymoは複数のニューラルネットワークを使い、センサーデータを解析し、車線や道路標識や歩行者や車両などを判定する(上の写真)。新しいデータを収集した時や、新しい場所で運転を開始する際は、ニューラルネットワークの再教育が必要となる。しかし、ニューラルネットワークを教育し、その精度を検証するには時間を要す(数週間かかるといわれている)。

ハイパーパラメータ最適化

アルゴリズム教育はニューラルネットワークのハイパーパラメータの最適化(Hyperparameter Optimization)に帰着する。ハイパーパラメータとはニューラルネットワークの基本形式で、学習速度(Learning Rate)、隠れ層(Hidden Layer)の数、CNNカーネル(Convolution Kernel)の大きさなどから構成される。ニューラルネットワークの教育を開始する前に、これらハイパーパラメータを決めておく。

AIで最適なハイパーパラメータを見つける

最適なハイパーパラメータを見つけるためには、異なる種類のハイパーパラメータを並列に稼働させ、それを検証して性能を比較する。この方式は「Random Search」と呼ばれ、AI(Deep Reinforcement Learning)の手法を使い、最適なハイパーパラメータを探す。Googleはこの方式を「AutoML」と呼び、クラウドで一般に提供している。WaymoはこのAutoMLを使い(下の写真、AutoML Architecture Searchの部分)、自動運転アルゴリズムの開発を始めた。

出典: Waymo

DeepMindが開発した新方式

DeepMindはAutoML方式を改良したシステム「Population Based Training (PBT)」を開発した。Waymoは2019年7月、この方式で自動運転アルゴリズムを開発し、性能が大きく向上したことを明らかにした。PBTもRandom Searchでハイパーパラメータを探すが、ここにダーウィンの進化論(Theory of Evolution)を適用し、自然淘汰の方式で最適な解にたどり着く。複数のニューラルネットワークが性能を競い合い、勝ったものだけが生き残る方式を採用している。

Population Based Trainingとは

具体的には、複数のニューラルネットワークを並列で教育し、それらの性能を測定する。最高の性能を達成したニューラルネットワークが生き残り、それが子供ネットワーク「Progeny」を生み出す(下の写真、複数の子供ネットワークが教育されている概念図)。

出典: DeepMind  

子供ネットワークは親ネットワークのコピーであるが、ハイパーパラメータの形が少しだけ変異(Mutate)している。自然界の摂理を参考に、ネットワークが子供に受け継がれたとき、その形を少し変異させる。生成された複数の子供ネットワークを教育し、そこからベストのものを選別し、このプロセスを繰り返す(下の写真:親ネットワークから子供ネットワークが生成される)。

出典: DeepMind  

才能を見抜く技術

PBTは優秀な子供ネットワークにリソースを集中させ、人間に例えると英才教育を施す仕組みとなる。これがPBTの強みであるが弱点でもある。PBTは短期レンジで性能を判定するため、今は性能は出ないが将来開花する遅咲きのネットワークを見つけることができない。この問題に対応するため、PBTは多様性を増やすことで遅咲きのネットワークを育てた。具体的には、ニッチグループ(Sub-Population)を作り、この中でネットワークを開発した。ちょうどガラパゴス諸島で特異な機能を持つ生物が生まれるように、閉じられた環境でエリートを探した。

クルマに応用

PBTは野心的なコンセプトであるが、実際にそれをWaymo自動運転車に適用し、その効果が実証された。BPTはオブジェクトを判定するニューラルネットワーク(Region Proposal Network)に適用された。このアルゴリズムは周囲のオブジェクト(歩行者、自転車、バイクなど、下の写真右側)を判定し、それを四角の箱で囲って表示する(下の写真左側)。その結果、アルゴリズムの判定精度が向上し、遅延時間が短く(短時間で判定できるように)なった。更に、Waymoは複数のニューラルネットワークでこの処理を実施しているが、PBTにより一本のニューラルネットワークでこれをカバーできることが分かった。

出典: Waymo  

判定精度が大幅に向上

PBTによりアルゴリズムの性能が大幅に向上したが、具体的には、PBTで生成したニューラルネットワークは従来の方式に比べ、従来と同じ再現率 (Recall、例えば周囲の自転車をもれなく検知する割合)で精度(Precision、例えば検知したオブジェクトを正しく自転車と判定する割合)が24%向上した。また、PBTは従来方式に比べ必要な計算機の量が半分となったとしている。

Googleのコア技術

Googleのコア技術はAIでこれをWaymoが採用することで自動運転アルゴリズムが大きく進化した。上述のAutoMLはGoogle Brain(AI研究所)で開発され、さらに高度なPBTはDeepMindが開発した。自動運転車はニューラルネットワークがその商品価値を決めるが、Googleのコア技術であるAIがWaymoの製品開発を後押ししている。

AppleがDrive.aiを買収:名門自動運転車ベンチャー挫折の理由は?スタートアップの淘汰が始まる

Appleは2019年6月、自動運転車ベンチャー「Drive.ai」を買収した。地元の新聞San Francisco Chronicleなどが報道した。この買収はAcqui-Hire(採用目的の買収)で、AppleはDrive.aiの有力開発者を雇い入れた。Appleは自動運転車を開発しているが、この買収で開発体制が強化される。Drive.aiはAI研究の第一人者Andrew Ngが指揮を執り、革新的な自動運転技術が登場すると期待されたが、予想に反し目立った成果を出せなかった。

出典: Drive.ai  

Drive.aiとは

Drive.aiはシリコンバレーに拠点を置くベンチャー企業で、社名の通りAIを基軸に自動運転技術を開発していた。Drive.aiはスタンフォード大学AI研究所(Stanford AI Lab)の研究者が創設し、Andrew Ngが会長として指揮を執っていた。Drive.aiはステルスモードでの開発を終え、2018年7月からは、テキサス州で実証実験を開始した。ちなみに、Drive.ai共同創業者のCarol ReileyはAndrew Ngの奥様である。

開発コンセプト

Drive.aiは業界最先端のAIとDeep Learningを使って自動運転技術を開発した。AIが周囲のオブジェクトを見分け、また、AIが人間の運転テクニックを見るだけで学習する。しかし、この方式で安全なクルマを開発できないことが分かり、基本設計の見直しを迫られた。車両はミニバン「Nissan NV200」を使用し(先頭の写真)、ここにセンサー(Lidar、カメラ、レーダー)を搭載し、制御機構にRobot Operating System (ROS、ロボットや自動運転車制御ソフト)を採用した。つまり、自動運転の定番技術をオープンソースで実装するというアプローチを取った。

インターフェイス

また、自動運転車と人間のインターフェイスを確立することで、安全性を高めるデザインとした。クルマは前後にディスプレイを搭載しシステムの意思を表示する。横断歩道では歩行者に「Waiting for You to Cross」と表示し安心してクルマの前を歩けるデザインとした(下の写真)。

出典: Drive.ai  

テキサス州での実証試験

Drive.aiはテキサス州フレスコ市と提携して自動運転車の実証試験を進めた。オフィス街で定められた経路を走行する自動運転シャトルとして運行した。また、テキサス州アーリントン市と提携しシャトルサービスを展開した。クルマは固定のルートを走り、市街地とスポーツ施設(AT&T Stadium、Dallas Cowboysのスタジアム)の間で輸送サービスを展開した(下の写真)。

実証実験は終了

Drive.aiは今年に入り会社の買い手を探していたといわれている。当初、Drive.aiは自動運転技術をすべてAIで実装するという高度な技術に挑戦していた。その後、オープンソースベースの自動運転技術を開発し、上述の通り、バスのように固定ルートを走行する自動運転車として運行を始めた。しかし、この実証実験は終了となり、Drive.aiの自動運転技術が注目されることはなかった。

出典: Drive.ai  

Appleの自動運転車開発

Appleは自動運転車を開発しているがその内容はベールに包まれている。開発プロジェクトは「Project Titan」と呼ばれ、2014年から始まり、2016年にはその規模が縮小された。同じ年に、Appleは中国大手ライドシェア 「Didi Chuxing (滴滴出行)」に10億ドル出資している。その後、Appleは自動運転車開発を再開し、今では大規模な体制でこれを進めている。事実、カリフォルニア州で自動運転車の走行試験を実施しているが、車両台数は55台と破格に多い。

お洒落で滑らかなクルマ

Appleが開発するクルマは自動運転機能だけでなく、乗り心地のいいデザインになるといわれている。Appleがダッシュボードやシートを設計し、また、フルアクティブサスペンション(Fully Actuated Suspension)を搭載することでショックを吸収し滑らかな走りができる。しかし、Appleがクルマを開発するのか、それとも、自動運転技術をメーカーに供給するのかなど、ビジネスモデルは見えてない。

バブルと淘汰

Drive.aiが開発を中止したことは自動運転車技術の難易度の高さを示している。固定ルートを無人で走行するレベルのクルマはできるが、市街地を自由に走れる自動運転車の開発は異次元の難しさがある。Drive.aiはピボットするのが早かったが、事業停止の見極めも早かった。いまカリフォルニア州で60社が路上で自動運転車の走行試験を進めている。自動運転バブルともいえる状況で、これから新興企業の淘汰が始まることになる。