カテゴリー別アーカイブ: 自動運転車

Teslaは世界最高速のAIプロセッサを発表、自動運転車開発でメーカーがAIスパコンを開発し垂直統合が進む

TeslaはAIイベント「AI Day」で自動運転車開発の最新状況を公開した。自動運転の中核技術は高度なコンピュータビジョンで、これを開発するためにはAIスパコンが必要となる。TeslaはAIプロセッサを開発し、これをベースに独自のAIスパコンを構築した。更に、自動運転技術をロボットに応用したヒューマノイドを開発することを明らかにした。

出典: Tesla

発表概要

Teslaの自動運転技術は「Full Self-Driving(FSD)」(上の写真)と呼ばれ、他社とは異なり、カメラだけでクルマが自律走行する。AIはカメラの映像を解析し周囲のオブジェクトを把握するが、ニューラルネットワークの規模が巨大になり、また、アルゴリズムを教育するために大量のデータを必要とする。このため、Teslaは独自でAIプロセッサ「D1 Chip」を開発し、アルゴリズム教育を超高速で実行する。自動車メーカーがスパコン開発まで手掛け、自動運転車で垂直統合が進む。

AI専用スパコン

TeslaはAI専用プロセッサD1をベースとするAIスパコン「ExaPOD」を開発した(下の写真)。このシステムはアルゴリズムの教育などで使われ、一般に「Dojo Supercomputer」と呼ばれる。現在は、GPUをベースとするAIスパコンを運用しているが、これを独自半導体D1 Chipで構成する。最大性能は1.1 ExaFlopsで、世界で第五位の処理能力を持つスパコンとなる。Teslaは既に、独自技術で車載プロセッサ「FDS Chip」を開発しており、クルマでアルゴリズムを実行するために使われている。今回発表のD1 Chipは超高速のプロセッサで、ExaPODでアルゴリズム教育などで使われる。

出典: Tesla

AIプロセッサ

AIプロセッサD1 Chipは354の計算ユニット(Training Node)から成るプロセッサで、最大性能は362 TeraFlopsとなる(下の写真)。計算ユニットはマトリックス計算とベクトル計算機構を備え、ニューラルネットワークの教育に最適のアーキテクチャとなる。従来は、Nvidia GPUを使っていたが、TeslaはAI処理に特化したD1 Chipを独自に開発した。

出典: Tesla  

AIプロセッサの性能比較

D1 Chipの特徴は他のチップと高速でデータ通信できることで、このクラスで最大の能力を持つ。D1 Chipはデバイスの周囲に通信機構(I/O Ring)を搭載し、他のチップとデータを送受信する。D1 Chipの通信性能が高いため、数多くのチップと連結でき、スパコン大規模なスパコンの開発可能となる。(下のグラフはAIチップの処理性能を示している。横軸が演算性能で縦軸が通信速度。GoogleのTPUやGPUに比べ通信性能が高いことが分かる。)

出典: Tesla  

ボードの構造

D1 Chipはボード「Training Tile」(下の写真)に搭載される。ボードには25個のD1 Chipが搭載され、他のボードと高速でデータ通信する。更に、このボード6枚をラックに搭載し、これを24ユニット使い、AIスパコン「ExaPOD」が構成される。つまり、ExaPODは3000個のD1 Chipを搭載し、最大性能は1.1 ExaFlopsとなる。

出典: Tesla  

コンセプト

TeslaはLidarを使わないでカメラだけで自動運転できる技術を開発している。カメラの映像をAIで解析することでクルマが自動走行する。コンピュータビジョンが視覚となり、クルマは動物のように、周りの状況を判断して安全なルートを走行する。クルマは8台のカメラを搭載し、これをAIで解析して周囲のオブジェクトを把握する。

出典: Tesla

自動運転AIの構造

上のグラフィックスはAIのアーキテクチャを示している。それぞれのカメラの映像をCNNで解析し特徴量を把握する(下段の部分)。これをTransformerで融合し、周囲を見渡せる3Dモデルを生成する。3Dモデルはベクトル空間(Vector Space)として構成され、クルマは周囲の状況を3Dで把握するだけでなく、その意味を理解する。更に、AIは過去のオブジェクトを“記憶”する機能を持ち、視界が遮られても周囲の状況を把握できる。(下のグラフィックス、ピックアップトラックがクルマの視界を遮ってもRNNは背後に二台のクルマがいることを覚えている(赤丸で囲った部分)。)

出典: Tesla

スパコンが必要な理由

Teslaが開発しているAIモデルは巨大で、更に、このニューラルネットワークを大量のデータで教育する必要がある。ニューラルネットワークのパラメータの数は数億個といわれ、自動運転車の開発は巨大AI開発でもある。Teslaは市販車両のカメラで撮影した映像をクラウドに集約しており、これが教育データとして使われる。大量の教育データを保有していることがTeslaの強みとなる。巨大なニューラルネットワークを大量のデータで教育するためにはAIスパコンが必須となる。

ロボット開発を開始

イベントの最後にMuskはヒューマノイドロボット「Tesla Bot」(下の写真)を開発することを明らかにした。自動運転車のカメラやAIをロボットに適用することでヒューマノイドを開発し、来年、プロトタイプの完成を目指す。ロボットは繰り返し作業など人間が嫌がるタスクを実行し、買い物に行くなどの利用法が示された。ただ、実際にロボットが完成するかどうかについて、Muskは難しいとの見解を示している。つまり、ロボット開発はMusk流のマーケティング手法で、市場の注目を集め、優秀なエンジニアを雇い入れることが目的との解釈もある。

出典: Tesla

Autopilotの事故が続く

Teslaは運転支援技術「Autopilot」で事故が続き、その対応に苦慮している。Autopilotで自動走行中に停車中の緊急車両に衝突する事故が11件続き、連邦政府(National Highway Transportation and Safety Administration)は調査を開始した。事故は夜間に発生しており、コンピュータビジョンの精度が調査の対象となる。AutopilotのAIに疑問が呈された形となり、Teslaはカメラだけで安全に走行できることを早期に実証する必要性に迫られている。

テスラは自動運転ベータ版の出荷を開始、クルマは市街地でドライバーの介在無しに自動で走行!!

テスラは自動運転ソフトウェアのベータ版のリリースを開始した。これは「Full Self-Driving(FSD)」と呼ばれ、クルマは市街地で自動で走行する。ついに、自動運転車が市場に投入された。ただ、このソフトウェアはベータ版で、最終製品が出荷されるのは2021年末となる。これに向けてAI開発が急ピッチで進んでおり、テスラはAI学会でコンピュータビジョンの開発状況を明らかにした。

出典: Tesla

自動運転技術の開発経緯

テスラの自動運転ソフトウェアFull Self-Driving(FSD)はAIで構成され、クルマにダウンロードすることで自動運転車となる。テスラは2020年10月にベータ版「FSD Beta」を公開し、先行ユーザが試験走行を進めてきた。テスラはこれを改良し、今週、最新版「FSD v9 Beta」のリリースを開始した。FSD v9 Betaは自動運転機能で、市街地をドライバーの介在無しに自動で走行する。FSD v9 Betaの最大の特徴は、LidarやRadarを使わないで、カメラの映像だけで自動走行できることにある。もはや、Radarも不要で、テスラ最新モデルはRadarの搭載を止め、カメラだけが実装され、センサーの構成がシンプルになった。

Full Self-Drivingとは

Full Self-Driving(FSD)とはAIで構成されたコンピュータビジョンで自動運転車の中核機能となる。カメラで捉えたビデオ画像をAIが解析し、オブジェクトの種類、オブジェクトまでの距離、及び、オブジェクトの移動速度を把握する。テスラはこのAIを「General Computer Vision」と呼び、屋外で汎用的に使えるコンピュータビジョンとしている。クルマは霧の中や雪道を走るが、General Computer Visionは視界が悪い環境も正しくオブジェクトを判定できる。(下の写真、試験走行中のFull Self-Driving)

出典: Andrej Karpathy

コンピュータビジョン学会

テスラのAI開発責任者であるAndrei Karpathyは、コンピュータビジョン学会「Conference on Computer Vision and Pattern Recognition(CVPR)」でテスラのAI開発状況を説明した。テスラの自動運転ソフトウェアFSD Betaは2000人が利用しており、170万マイルを無事故で走行した。更に、上述の通り、最新版FSD v9 Betaが公開され、学会ではこのモデルについてシステム概要が公開された。

テスラの開発戦略

テスラのターゲットはカメラだけで自動走行できるAIの開発にあり、Karpathyはそのための開発手法を明らかにした。Waymoはアリゾナ州で自動運転タクシーを運行しているが、カメラの他にLidarやRadarを使い、異なる種類のセンサーで周囲のオブジェクトを判定する。一方、テスラはLidarやRadarを使わないで、カメラだけで自動運転技術を開発する。極めて高度なコンピュータビジョンを必要とし、テスラはAIに会社の将来を託す形となった。

カメラの構造

クルマは前後左右に8台のカメラを搭載し、これらのビデオ映像をAIで解析し、周囲のオブジェクトを把握する(下の写真)。AIは8つのビデオ映像から周囲を3Dで把握して、オブジェクトの種類や距離や速度を把握する。

出典: Andrej Karpathy  

アルゴリズムの開発手法

テスラは高度なコンピュータビジョンを開発するために、ニューラルネットワークを大量のデータで教育する戦略を取る。クルマが走行中に遭遇する全ての状況を収集し、このデータを使ってニューラルネットワークを教育すると、自動走行できるポイントに到達すると考える。このため、テスラは大規模な教育データセットを構築した。このデータセットには100万のビデオが格納され、そこに映っているオブジェクトの数は60億で、それらにはタグが付加されている。

タグ付けとは

タグ付けとはビデオに映っているオブジェクトの属性を添付するプロセスを指す。教育データ開発では、カメラに映ったオブジェクトに(下の写真上段)、その属性を付加する作業が必要になる。通常、オブジェクトを四角の箱で囲い、その種別を付加する(下段)。タグ付け作業は専門会社に依頼するが、テスラの場合はオブジェクトの数が膨大で、人間がマニュアルで作業することはできない。このため、テスラはタグ付けを行うAIを開発し、これをスパコンで稼働させ大量のデータを処理する。スパコンがビデオを読み込み、そこに映っているオブジェクトの種類を判定し、自動で名前を付加する。

出典: Andrej Karpathy  

世界最大規模のスパコン

このプロセスは大規模な計算環境を必要歳、テスラはスパコンを独自に開発し、AIによるタグ付け処理を実行する(下の写真)。処理能力は1.8 exaFLOPSで世界のスパコンの中で第五位の性能となる(下の写真左側、プロセッサ部分)。プロセッサはNvidia A100をベースに760ノードで構成され、5760のGPUで構成される。また、メモリ容量は10 PBでネットワーク通信速度は640 Tbpsとなる(下の写真右側、ネットワーク部分)。自動運転AIを開発するには、世界でトップレベルのスパコンが必要となる。

出典: Andrej Karpathy  

ベータ版の評価

既に、先行ユーザはFSD v9 Betaをクルマにダウンロードし、自動運転機能を試験している。トライアルの様子はビデオで撮影されネットで公開されている。これらのビデオによると、テスラは市街地において信号機に従って走行し、また、一旦停止の交差点で順番を守って発進する機能も確認されている。複雑な市街地でドライバーの介在無しに自動で走行できることが示されている。同時に、道路標識を見落とすケースなども記録されており、まだ完ぺきではないことも分かる。FSD v9 BetaはあくまでLevel 2の自動運転支援システムであり、ドライバーはステアリングに手をかけ、先方を注視しておく必要がある。

出典: James Locke

大量のデータで教育すると自動運転車となるか

Muskは、FSDのAI技術の改良を重ね、2021年末までに最終製品を出荷すると述べている。今年末までに自動運転車を出荷できる根拠として、MuskはこのペースでAI開発を進めると、アルゴリズムのエラー率が大きく下がると予測している。FSDは自動で走行するが、AIが判断を間違えた時は、ドライバーが手動でこれを補正する。年末までに、AIが学習を重ねこの補正操作が不要となるとみている。上述の通り、AIを膨大な数のデータで教育すると、このポイントに到達できるという前提の下で開発を進めている。ただし、この仮定は実証されておらず、テスラにとっては大きな賭けとなる。あと半年でFSDが自動運転車になるのか、市場が注目している。

Nvidiaは世界最高速の自動運転AIプロセッサを発表、主要メーカーが採用し国際標準となる

Nvidiaは2021年4月、開発者会議「GPU Technology Conference(GTC)」で、プロセッサとAIの最新技術を公開した。CEOのJensen Huangは基調講演で自動運転車向けのプロセッサと開発環境を解説した。Googleなどは独自技術で自動運転車を開発するが、Nvidiaはプロセッサやリファレンスモデルを提供し、一般企業がこれを使い短期間で自動運転車を開発する。パソコンがIntel x86で組み立てられるように、自動運転車はNvidiaの標準プロセッサで開発される。

出典: Nvidia

Ndiviaの自動運転技術

Nvidiaは世界最高速の車載AIプロセッサ「Atlan」を発表した。また、自動運転車のリファレンスモデル「Hyperion」を公開し、企業はこのテンプレートを使って自動運転車を開発する。更に、高精度のシミュレータ「Drive Sim」を発表した。これはデジタルツインを生成する技術「Omniverse」で構成され、現実社会に忠実な仮想社会が生成され、ここで自動運転車の試験や検証を実行する。

AIプロセッサ:Atlan

Nvidiaは自動運転車向けの車載AIプロセッサを開発してきたが、その第四世代となる「Atlan」を発表した(下の写真)。Atlanは世界最高速の車載AIプロセッサで、Nvidiaはこれを「クルマに搭載されたデータセンター」と呼んでいる。Atlanは三つのモジュールで構成され、AI演算を司るGPU「Ampere」、汎用プロセッサCPU「Grace」、データ処理プロセッサDPU「BlueField」から成る。GraceとはNvidiaが開発したCPUで、ARMベースのアーキテクチャとなる。また、BlueFieldは、セキュリティ機構や通信処理機能を備えた専用プロセッサで、車載プロセッサに組み込むのは今回が初となる。

出典: Nvidia

AIアルゴリズムを高速で処理

Atlanは自動運転AIを実行するプロセッサで、クルマに搭載されたカメラやLidarのデータを解析し、進行経路を算出する。また、Atlanはクルマと運転者のインターフェイスとなるAIを実行する。クルマは搭乗者と音声で会話し、また、運転者の身体状況をモニターする。Atlanの性能は1,000 TOPS(毎秒1,000兆回の演算)能力を持ち、現行モデル「Orin」の4倍の性能となる。Orinは2022年から生産が開始され、Atlanは2023年からサンプリングが始まり、2025年のモデルに搭載される。

VolvoはOrinで自動運転車開発

GTCでVolvoはNvidiaと自動運転車の共同開発を進め、Orinを搭載した自動運転車を2022年に出荷することを明らかにした。Volvoの高級SUV「XC90」にOrinが搭載され、レベル4の自動運転車となる(下の写真)。Volvoの次世代車両は自動運転に対応したアーキテクチャとなり、必要なハードウェアを実装し、ソフトウェアのアップデートで自動運転車となる。また、クルマは位置情報と気象情報を把握し、自動運転できる条件を自動で判断する。自動運転技術はVolvoの子会社Zenseactで開発され、Volvoはインテリジェントなモビリティ企業に変身している。

出典: Volvo / Nvidia

自動運転リファレンスモデル:Hyperion

Nvidiaは自動運転車のリファレンスモデル「Hyperion」の最新版を発表した(下の写真)。これは自動運転車の開発キットで、ハードウェアとソフトウェアで構成される。企業や大学はこのモデルを使って短時間で自動運転車を開発できる。ハードウェアは、プロセッサとしてOrin(2セット)、センサーはカメラ(外部搭載が12台で車内搭載が3台)、レーダー(9台)、Lidar(2台)で構成される。ソフトウェアは評価ツールで、Nvidiaの自動運転ソフトウェアを使って開発したシステムをここで検証する。

出典: Nvidia

自動運転ソフトウェア

Nvidiaは自動運転ソフトウェアをオープンソースとして公開しており、これを利用して自動運転車を開発する。これは「Drive Software」と呼ばれ、基本ソフトウェア「Drive OS」、開発環境「DriveWorks」、自動運転機能「Drive AV」、運転者監視機能「Drive IX」から構成される。これらのソフトウェアをHyperionと組み合わせレベル4の自動運転車を短期間で開発できる。実際に、バージニア工科大学はHyperionで自動運転車を開発し、自動運転技術の研究で活用している。

自動運転シミュレータ:Drive Sim

Nvidiaは自動運転車ソフトウェアを開発するシミュレータを発表した。これは「Drive Sim」と呼ばれ、実社会を忠実に再現した高精度なシミュレータとなっている。シミュレータで自動運転AIのコア技術であるコンピュータビジョンのアルゴリズムを教育する。また、完成した自動運転ソフトウェアを試験する環境として使う。(下の写真、シミュレータが描写するシーンであるが、現実社会と見分けがつかないだけでなく、物理現象が正確に再現されている。)

出典: Nvidia

デジタルツイン開発技術:Omniverse

シミュレータはデジタルツインを生成する技術基盤「Omniverse」をベースに開発された。シミュレータはクルマに搭載されたセンサーが収集するデータを忠実に再現することが求められる。また、クルマは異なる環境で走行し、外部の光の状態を正確に描き出すことが必須要件となる。従来はゲームエンジンで生成されていたが、上記の要件を満たすためOmniverseが開発された。これにより、シミュレータは物理現象を正確に反映し、アルゴリズムの教育や検証で効果をあげることが期待される。

自動運転プロセッサの国際標準

Nvidiaの自動運転プロセッサはVolvoの他に、GM CruiseやAmazon Zooxなど先進企業が採用している。また、NvidiaはMercedes-Benzとソフトウェアで定義されたクルマ「Software-Defined-Vehicles」を開発している。Mercedes-BenzにOrinを搭載し、レベル4の自動運転車として製品化する(先頭の写真)。多くの自動運転車ベンダーがOrinの採用を始め、Nvidiaはクルマの国際標準プロセッサとなる勢いをみせている。

Nuroはシリコンバレーで自動運転車による商品宅配を開始、無人車両がラストマイル配送を担う

Nuroはカリフォルニア州マウンテンビュー市に拠点を置くベンチャー企業で配送用の自動運転車「R2」を開発している(下の写真)。R2はレベル5の自動運転車で、無人で生鮮食料品などを配送する。大手小売店舗KrogerやドラッグストアCVS PharmacyはNuroで商品配送の実証試験を進めている。開発が進み、Nuroはシリコンバレーで商用運転を開始すると発表した。

出典: Nuro

営業運行許可を受ける

Nuroは2020年12月、カリフォルニア州の公道で無人走行するための認可をDMV (Department of Motor Vehicles、州の陸運局)より受けたことを明らかにした。これにより、Nuroはシリコンバレーの二つの地域で商品配送の営業運行を開始するとしている。また、商品を販売する小売店舗については近日中に明らかになる。

営業運行で使う車両

営業運行は二段階にわけて実施される。最初はトヨタ・プリウスをベースにした無人車両が使われる。この車両は自動運転技術を開発するための試験車両で、シリコンバレーで走行試験を重ねている(下の写真)。最終的には、配送専用車両「R2」が営業運転を担う。どちらも完全自動運転車で、クルマが無人で商品を配送する。

出典: VentureClef  

運行条件

Nuroはシリコンバレーの中でサンタクララ群とサンマテオ群で運行する見込み。その際に、走行できる道路も規定され、定められたルートを安全に走行する。また、最大速度は時速35マイルで、ゆっくりとした走りとなる。更に、運行できる気象条件は「fair weather conditions」と規定され、天気が良好な時に限り運行が認められる。雨や霧など視界が悪い時は運行できない。

無人配送の利用方法

Nuroは小売店舗から商品を消費者宅まで配送するために使われる。消費者は店舗ウェブサイトで商品を購入すると、購入した商品がNuroで配送される。Nuroは玄関先に停車し、消費者は貨物ベイのハッチを開けて商品を取り出す(下の写真)。現在は生成食料品が中心であるが、医薬品の配送も計画されている。

出典: Nuro

配送ロボット

シリコンバレーでは既に「Starship」がレストランの料理を出前している。これは宅配専用のロボットで、歩道を自動で走行し、路上の障害物を上手く回避して走る(下の写真)。これに対し、Nuroはクルマ形状の配送車両で、多くの荷物を遠くまで運べることが特徴となる。Nuroはスーパーマーケットの生鮮食料品の宅配などで使われる。

出典: VentureClef

実証試験:CVS Pharmacy

Nuroは2020年6月から、テキサス州ヒューストンにおいて医療品の宅配サービスを始めている(下の写真)。これはドラッグストア「CVS Pharmacy」と提携して行う実証試験で、顧客が購入した商品をNuroが配送する。顧客はCVS.comで処方箋や商品を購入し、宅配オプションを選択すると、3時間以内に配送される。生鮮食料品の次は医薬品の配送が大きな市場となる。

出典: Nuro  

ラストマイル配送

コロナ感染拡大でEコマース市場が急拡大し、商品を消費者に配送するラストマイル配送(Last Mile Delivery)技術に注目が集まっている。配送手段としては、郊外では「Google Wing」などのドローンが使われる。市街地におけるレストラン出前では「Starship」などのロボットが使われる。都市部では「Nuro」のような自動運転車がラストマイルを担う。特に、コロナ感染が広がる中、Nuroで非接触に安全に買い物ができる。また、外出が難しい高齢者にとって、Nuroが小売店舗との橋渡しとなる。

GM Cruiseもサンフランシスコで無人走行を開始、メーカーは生き残りをかけて自動運転車を開発

General Motors(GM)は買収したCruiseを核に、サンフランシスコを拠点に自動運転車を開発している。Chevy Bolt EVをベースにしたモデルで、Lidar、カメラ、レーダーを搭載し自動で走行する(下の写真)。5年間にわたり開発を進め自動運転技術が大きく進化している。込み合った市街地で走行するため高度なAI技術を開発し、クルマや歩行者の動きを高精度で予測する。

出典: Cruise

無人車両で試験運転

Cruiseはサンフランシスコにおいてドライバーが搭乗しない無人車両で走行試験を実施することを発表した。2020年第四四半期の決算発表でCruise CEOのDan Ammannが明らかにした。Ammannによると、Cruiseは2020年に9億ドルを投じて開発を進め、自動運転技術が大きく進展し、複雑な市街地において無人走行試験ができるレベルに達した。

無人ライドシェア

GMの会長兼CEOであるMary BarraはCruiseの事業戦略について明らかにした。Cruiseの出荷時期については明言を避けたが、数年先ではなく、近いうちにリリースできるとの見通しを示した。また、自動運転車のビジネスモデルはロボタクシーで、無人のライドシェアとして事業を構築する。Uberのようなライドシェアであるが、ドライバーは搭乗しないで無人の車両が乗客を運ぶ。Cruiseは既にライドシェアアプリを開発しており、他社と提携しないで独自で事業を運営する。

無人走行試験の概要

Cruiseはドライバーが搭乗しないで試験走行するが、助手席にはセーフティドオペレータが搭乗する。クルマが危険な状態になると、セーフティオペレータがクルマを安全に停止させる。しかし、ステアリング操作などはしないで最小限の介在にとどめる。最終的にはセーフティドオペレータも搭乗しないで、無人車両で試験運転を実行する。これに先立ち、CruiseはDMV(カリフォルニア州陸運局)より無人で試験走行するための認可を得ている。

出典: Cruise  

走行試験の実績

Cruiseはサンフランシスコで5年にわたり走行試験を続け、累計で200万マイル走行した。これはすべてEVで実施され、地球温暖化ガスは発生していない。Cruiseはサンフランシスコでの走行試験をビデオで公開し、複雑な市街地を安全に走行できることをアピールしている。Cruiseは、込み合った道や夜間の走行など、クルマにとって一番厳しい条件で開発を進めている。ここをクリアできれば全米の全ての都市で運行できることになる。

AIによる推論機能

自動運転車の開発でカギを握る技術は認識したオブジェクトの次の動きを予測すること。周囲のクルマや歩行者の次の動きを機械学習の手法で予測する。機械学習は一般的なケースだけでなく、特異な動きをするケースも予測する。例えば、前のクルマが右に膨らんで走ると(下の写真、左側)、AIはこのクルマはUターンすると推論する(右側、緑色の線)。人間も経験を積んでこれを学ぶが、サンフランシスコのような込み合った市街地の走行では高度な推論機能が必須となる。

出典: Cruise  

Cruise Origin

これに先立ち、Cruiseは2020年1月、EV自動運転車「Cruise Origin」(下の写真)を発表した。これはワゴン形状の自動運転車で、ライドシェアを目的に開発された。ドアはスライド式で、車内は二人掛けのシートが対面して設置される。Cruise OriginはZooxに対抗する製品として位置付けられる。

出典: Cruise  

自動車メーカーの逆襲

今年に入り、サンフランシスコで無人車両の試験運転が一斉に始まった。Zooxはワゴン形状の自動運転車で、無人ライドシェアの試験走行を開始した。また、Waymoはフェニックスの次の都市をサンフランシスコとし、ここで無人タクシーの営業運転を始める。これらハイテク企業に対し、大手メーカーのGMはCruiseを核に生き残りをかけて開発を加速している。