米国の小売店舗は万引き防止のためAI監視カメラの導入を進める、人権団体は消費者保護を理由に廃止を求める

米国の主要小売店舗でAI監視カメラの導入が進んでいる。店舗に設置された監視カメラの映像をAIで解析し、商品窃盗者の身元を特定する目的で使われる。消費者が気付かないうちに普及が進み、今ではApple Storeなど大手小売店舗がAI監視カメラを導入している。しかし、人権保護団体は、AI監視カメラは消費者の誤認逮捕につながるとして、小売店舗に対しシステムの使用を停止するよう求めている。

出典: Macy’s

老舗デパート・メイシーズ

米国のデパートやスーパーマーケットでAI監視カメラの導入が進んでいる。老舗デパートであるMacy’sは、顔認識システムを導入していることを明らかにしている。その理由として、犯罪組織が特定地域で商品窃盗を繰り返しており、これを抑止するためにAI監視カメラを利用すると説明している。実際に、米国は昨年から治安が悪化しており、有名店舗で高級品を狙った窃盗事件が多発している。

アップルストアー

Appleは何も公表していないが、Apple StoreはAI監視カメラを導入し、商品窃盗を防止していることが判明した。Appleとそのセキュリティ企業Security Industry Specialistsは消費者から顔認識システムに関し訴訟を受けている。訴状によると、Appleは顔認識システムで窃盗者を特定したが、これはアルゴリズムのエラーで、別の人物がその人物になりすまして犯行を実行したことが判明した。このため、消費者は誤認逮捕されたとしてAppleなどを提訴している。この訴訟が切っ掛けでAppleがAI監視カメラを導入していることが明らかになった。

出典: Apple  

セブンイレブンなど

この他に、コンビニ7-Elevenはオーストラリアの全店舗でAI監視カメラを導入している。また、ハンバーガーチェインのMcDonald’sは2019年、注文受付カウンターで顔認識システムのプロトタイプの運用を開始した。現在、マクドナルドは監視カメラで店舗内の顧客を撮影し、セキュリティを強化している。一方で、AI監視カメラを使用しないと表明する企業も少なくない。Starbucksは顔認識システムを利用しないことを明言しており、顧客のプライバシーを保護する方針を維持している。

多くの店舗が顔認識システムを導入

人権監視団体「Fight for the Future」は顔認識システムの利用状況をまとめ、これをデータベースとして公開している。これによると、調査した53社のうち35社が顔認識システムを使っている。消費者が気付かないうちに米国小売店で顔認識システムの普及が進み、全体の2/3がAI監視カメラを導入している。現在、人権監視団体は小売店舗で顔認識システムの利用を停止するための活動を展開している。

反対する理由

人権監視団体がこの運動を展開する理由は消費者や店舗従業員の保護にある。顔認識アルゴリズムは判定精度が十分でなく、システムは間違った判定を下すことが少なくない。このため、Apple Storeのケースのように、消費者が誤認逮捕されることになる。また、顔認識システムは消費者の挙動を収集するためにも使われる。AI監視カメラで消費者の店内での挙動を把握し、この情報を元にターゲット広告を配信する。更に、AI監視カメラは小売店舗従業員の仕事ぶりを監視する目的で使われ、アルゴリズムが動きを逐一モニターする。

出典: Fight for the Future

警察は顔認識システムの使用を中止

顔認識システムの妥当性についての議論が始まり、全米の警察はその利用を禁止する方向に進んでいる。サンフランシスコ市は警察が顔認識技術を使うことを禁止した。これがトリガーとなり、対岸のオークランド市とバークレー市も顔認識技術の使用を禁止し、警察はこのシステムの使用を中止した。この背後には政府がAIで市民を監視することへの漠然とした恐怖心があり、顔認識システム禁止の動きが全米に広がる勢いとなっている。

欧州と米国の動き

消費者はAIに対する漠然とした恐怖から、顔認識システムに過剰に反応していることも事実である。AI監視カメラを正しく使うと、犯罪を抑止し、地域のセキュリティが向上する。このため、欧州委員会(European Commission)はAI監視カメラについてその使用を認めている。但し、AI監視カメラで顔認識システムが稼働していることを明示することを義務付けており、消費者への配慮を求めている。米国も同様な方向に進んでおり、警察での使用禁止とは対照的に、小売店舗や企業でAI監視カメラの導入が進んでいる。

Googleは監視カメラ最新モデルを発表、カメラにAIチップを搭載し検知精度が向上、エッジAIへの流れが加速

Googleは監視カメラ「Nest Cam」とドアベル「Nest Doorbell」の最新モデルを発表した。カメラはAIチップを搭載し、画像解析処理をデバイス上で実行する。クラウドを介すことなく、デバイス上で機械学習を実行でき、高精度で不審者などのオブジェクトを検知する。Googleはスマホ最新モデルPixel 6に続き、スマートホーム製品でもエッジAIを採用し、デバイスのAI処理性能を大幅に向上した。

出典: Google

Nest CamとNest Doorbell

Googleはスマートホーム製品を「Nest」のブランドで提供しており、監視カメラ「Nest Cam」とドアベル「Nest Doorbell」の最新モデルを開発した。Nest Camは二機種あり、屋外・屋内モデル(上の写真、右端)と屋内モデル(中央)で、前者はバッテリーで稼働する。ドアベル(左側)もバッテリーで稼働し、配線は不要で簡単に設置できることが特徴となる。デザインも一新され、シンプルで背景に調和する色調や形状となった。

監視カメラ

Nest CamとNest Doorbellはカメラが捉えた映像をAIで解析してイベントを検知する構成となる。Nest Camは家屋の外壁などに取り付けて利用する(下の写真右側)。Nest CamのAIはオブジェクトの種別を判定し、人や動物やクルマを検知すると(左側)、それをアラートとして利用者のスマホに送信する(中央)。外出先からでも自宅のセキュリティを確認することができる。

出典: Google  

ドアベル

Nest Doorbellはドアベルであるがカメラを搭載しており、監視カメラとして機能する(下の写真中央)。Nest Doorbellは人の動きを検知し、訪問者があると、それをアラートとして利用者のスマホに送信する(左側)。利用者はアプリで訪問者を確認し、マイクボタンを押すとそのまま会話することができる。また、オンラインショッピングで商品が配送されるとそれを認識し(右側)、利用者に通知する。

出典: Google  

AIスピーカーとの連携

Googleは監視カメラやドアベルをスマートホームの主要製品と位置付け、AIスピーカーとの連携を強化している。米国の家庭でAIスピーカーの導入が進んでいるが、Googleは「Nest Mini」(下の写真左端)や「Nest Hub」(右端)を提供している。Nest Hubはディスプレイを搭載したAIスピーカーで、監視カメラやドアベルがイベントを検知すると、カメラの映像がストリーミングされる。訪問者をディスプレイで確認してドアを開けるなどの応対ができる。

出典: Google  

Tensorチップ

Nest CamとNest DoorbellはAIチップ「Tensor Processor(TPU)」を搭載しており、カメラの映像をデバイス上で解析する。従来はカメラの映像をクラウドに送付して解析していたが、これをデバイス上で処理することで性能アップを達成した。具体的には、Nest CamとNest Doorbellは現行製品と比較して、二倍のピクセルとフレームを処理することができ、判定精度が大きく向上した。GoogleはエッジAIの開発を進め、先週発表されたPixel 6に続き、NestでもAIチップをデバイスに搭載する構成を取る。GoogleはIoTデバイス向けのAIチップを「Edge TPU」として販売している(下の写真)。

出典: Google  

実際に使ってみてみると

実際に、Nest Doorbellの現行モデルを使っているが、玄関先のセキュリティが強化され、安心感が大幅に向上した。使い方はシンプルで、スマホアプリ「Nest」からドアベルが捉えた玄関先のビデオを見ることができる(下の写真左端)。また、来客があると、アラートをスマホで受信する。更に、商品が宅配されたとき、AIはそのイベントを把握し、スマホにメッセージを送信する(中央最上段)。玄関先に置かれた商品を手早く取り上げることで盗難被害を防ぐことができる。

出典: VentureClef  

クラウドに映像を記録

撮影されたビデオはクラウド「Nest Aware」に記録され、これを検索することで特定のイベント(商品配送など)を再生できる(上の写真右端)。一方、木の陰などをイベントとして捉え、アラートを受け取ることがあり、判定精度が課題であるとも感じる。最新モデルはAIチップが搭載され、画像解析の判定精度が上がり、誤検知が減ると期待される。

AIドアベルが人気商品

いま米国でAI監視カメラの導入が進んでいる。特に、AIドアベルの人気が高く、多くの家庭がセキュリティ強化のために設置している。Googleからは上述のNest Doorbellが出荷されている。また、Amazonからは「Ring Doorbell」が提供され、両者が人気商品で市場を二分している。これらは、宅配商品の盗難を防ぐために、また、自宅前のイベントを監視するために使われている。GoogleはドアベルのAI性能を向上することでAmazonとの差別化を図っている。

Googleはスマホ最新モデル「Pixel 6」を発表、自社開発プロセッサ「Tensor SoC」を搭載し超高速AIマシンに進化

Googleは8月2日、スマホ最新モデル「Pixel 6」を発表した(下の写真)。Googleは独自でスマホ向けプロセッサ「Tensor SoC」開発した。名称が示している通り、これはAI処理に特化したプロセッサで、スマホはAIマシンに進化した。Googleはスマホ向けに様々なAIシステムを開発してきたがプロセッサ性能が限界に達し、今回、独自にプロセッサを開発し、性能を大幅にアップグレードした。

出典: Google

Pixel 6の概要

このシリーズは「Pixel 6」と「Pixel 6 Pro」の二つのモデルから成り、今年の秋から出荷が始まる。製品価格やハードウェア仕様など詳細情報は公表されていない。発表のポイントは高速AIプロセッサで、Googleはスマホの機能をAIで拡充する戦略を取る。これにより、AIがカメラの性能を大幅に機能アップする。また、AIがリアルタイムの通訳となり、異なる言語で会話できる。更に、最新の基本ソフト「Android 12」を搭載し、カラーデザインが洗練されユーザインターフェイスが大幅に改善された。

スマホ向けプロセッサ

Googleはスマホ向けのプロセッサ「Tensor SoC」(下の写真)を独自で開発した。SoCとは「System on a Chip」の略で基本ソフトを稼働させるメインのプロセッサとなる。今までGoogleは半導体企業QualcommからSoC (Snapdragon)を調達してきたが、Pixel 6向けにはこれを独自で開発した。Tensorという名称が示すように、AI処理に重点を置いたプロセッサ構成となる。一方、SoCを構成するユニットとして、CPU、GPU、5G Modemなどがあるが、Googleはこれらを独自で開発したのかどうかについては公表していない。(米国メディアはSoCのベースをSamsungからライセンスを受け、GoogleはAIプロセッサの部分を開発したと推測している。)

出典: Google  

カメラと画像処理

Googleはカメラで撮影したデータをAIで処理して写真やビデオを生成する手法を取る。これは「Computational Photography」と呼ばれ、カメラのセンサーが捉えたイメージをAIで解析しダイナミックレンジの広い画像「HDR」を生成する。また、暗闇の中でもフラッシュや三脚を使わないで鮮明な写真を生成する技術「Night Sight」を開発してきた。このプロセスで大規模なAI計算が発生し、これをTensor SoCが担う。また、Pixel 6ではカメラと関連センサーは本体に収まらず、帯状のデバイス「Camara Bar」に格納される(先頭の写真、黒色の長方形の部分)。

言語処理

AI機能のもう一つの柱は言語処理で言語モデルが言葉を理解してユーザとのインターフェイスとなる。「Google Assistant」が人間の秘書のように言葉を理解してタスクを実行する。また、AIアプリ「Recorder」は録音した言葉をテキストに変換する機能を持つ(下の写真)。会議での発言を録音し(左端)、Recorderがそれをテキストに変換し(中央)、議事録を作成する。後日、議事録を検索して特定の発言を見つけることができる(右端)。Pixel 6はこれをもう一歩すすめ、同時通訳機能が登場した。Pixel 6のTensor SoCで翻訳プロセスが実行され、クラウドを経ることなく、デバイス上でリアルタイムに実行される。

出典: Google  

Material You

Googleは開発者会議Google I/Oで基本ソフトの最新モデル「Android 12」と新たなデザインコンセプト「Material You」(下の写真)を発表した。Android 12はMaterial Youを搭載する最初の基本ソフトでPixel 6でこれを製品として提供する。Material Youは色をベースとしたシンプルなデザインで、機能性と個人の個性を追求したインターフェイスとなる。

出典: Google  

Material Youを使ってみると

既に、Android 12のベータ版が公開されており、Material Youを使うことができる(下の写真)。Material Youでは基本色調「Basic Color」を設定すると画面のコンポーネントがその色となる。例えば、基本色調をブルーに設定すると(左端)、画面のボタンやアイコンの色がブルーに (中央)なる。また、ブラウンに設定するとその色を基調としたデザインとなる(右端)。更に、Material Youではボタンの形状が丸みを帯び、サイズも大きくなり、優しいイメージに進化した。Pixel 4でAndroid 12のMaterial Youを使っているが、タッチしやすく温かみを感じるインターフェイスとなった。

   

出典: VentureClef  

スマホハイエンド市場への挑戦

Googleは2016年10月、Pixelを発表しスマホ事業に参入し、Pixel 6は第六世代のモデルとなる。Pixelシリーズは一貫してAIでスマホを構成する戦略を取り、Googleのコア技術である画像解析と言語モデルをスマホに応用してきた。Google PixelのカメラはAIで構成され、世界でトップレベルの高品質な画像を生成してきた。しかし、近年ではApple iPhoneの機能アップが著しく、Pixelはスマホ競争から取り残されている。Pixel 6はプロセッサを大幅にアップグレードし、再び、ハイエンド市場でシェア拡大を狙っている。

Googleが産業用ロボット市場に進出、高度なAIでロボットのソフトウェアを開発、日本企業との競争が始まる

Googleの親会社であるAlphabetは産業用ロボットを開発するため独立会社「Intrinsic」を創設した。ロボットはムーンショット工場「Alphabet X」で開発されてきたが、ここを卒業し独立企業として製品化を目指す。Intrinsicはロボットの頭脳となるソフトウェアを開発する。日本企業は産業用ロボットで大きなシェアを占めているが、ここでGoogleとの競争が始まることになる。

出典: Intrinsic

Intrinsicの概要

Intrinsicは産業用ロボット(Industrial Robotics)のソフトウェアを開発する。ロボット本体のハードウェアではなく、その頭脳となるソフトウェアを開発する。産業用ロボットとは製造工場で組み立て作業などを行うロボットで、ソーラーパネルや自動車の製造ラインで使われる。つまり、Intrinsicは家庭向けのヒューマノイドではなく、製造ライン向けにロボットアームを稼働させるソフトウェアを開発する。

産業用ロボットを開発する理由

Intrinsicが産業用ロボットを開発する理由は製造業を中国から米国や欧州などの先進国に戻すためである。国際経済フォーラムによると、現在、全世界の製造量の70%を10の国が担っている(下のグラフィックス)。特に、中国はその28.4%を占め、世界の工場として稼働している。Intrinsicが開発するロボットを使えば、どこにでも簡単に製造ラインを構築できる。各国が自国に製造施設を持つことができ、新たなビジネスが生まれる。更に、消費地に近い場所で製造することで、製品を輸送する距離が短縮され、地球温暖化ガスの削減につながる。特に、米国は自国に製造業を呼び戻す政策を進めているが、2030年までに作業員が210万人不足すると予想され、これを産業用ロボットで補完する。

出典: Statista  

現行の産業用ロボットの限界

現在、家電製品や自動車の製造で産業用ロボットが使われているが、そのテクノロジーは旧態依然のままであり、これがロボットの普及を妨げている。産業用ロボットのソフトウェアは特定のタスクを実行するために書かれている。これはハードコーディングと呼ばれ、例えば、部品の溶接ではそれ専用にコーディングする。また、パネルを接着してケースを作るには、そのタスクに特化したコーディングをする。このため、タスクごとにソフトウェアを開発することになり、多数のエンジニアを必要とし、完成するまでに時間を要す。

Intrinsicのアプローチ

これに対し、Intrinsicは高度なAIを使いインテリジェントな産業用ロボットを開発する戦略を取る。チームは数年にわたり、産業用ロボットの視覚機能、学習能力、補正能力などを開発してきた。具体的には、オブジェクト認識技術(Perception)、深層学習(Deep Learning)、強化学習(Reinforcement Learning)など最新のAI技法を開発し、幅広いタスクを実行できる産業用ロボットを目指している。

出典: Intrinsic  

プロトタイプの検証

Intrinsicはこれらの機能を実装したプロトタイプを制作しその機能を検証した。ロボットは深層学習とフォース制御機能を搭載することで、異なる形状のUSB端子を正しい場所に最適な力で挿入することができる(上の写真)。開発に要した時間は2時間で、短時間で複雑な操作ができるロボットの開発に成功した。また、視覚機能や計画機能を搭載することで、二台のロボットが共同で家具のパネルを組み立てることができる(下の写真)。

出典: Intrinsic  

更に、ロボットが協調して木造家屋を組み立てることができる(下の写真)。これはチューリッヒ工科大学(ETH Zurich)のGramazio Kohler Researchで実施されたもので、四台のロボットが協調して家屋のパネルを組み立て接着剤で固定する。製造現場では多様なタスクを実行する必要があるが、プロトタイプは短時間で開発され、ロボットが汎用的な作業ができる目途がついたとしている。

出典: Gramazio Kohler Research, ETH Zurich

ムーンショットを卒業

チームはムーンショット工場「Alphabet X」(下の写真)で5年半にわたり、プロトタイプの開発を進めてきたが、これからはIntrinsicで産業用ロボットの商用化を目指す。対象分野は家電産業や自動車製造やヘルスケアで、パートナー企業と商用モデルを開発する。

出典: VentureClef  

ロボット開発の歴史

Googleのロボット開発は2013年に始まり、Boston Dynamicsなど6社を相次いで買収した。この中には日本企業Schaftも含まれていた。ロボット開発プロジェクトは「Replicant」と呼ばれ、Androidの生みの親Andy Rubinの下で進められた。しかし、プロジェクトで目立った成果は無く、GoogleはReplicantを中止した。

ロボット開発を再開

その後、Googleはソフトウェアに重点を移し、ロボット開発を再開した。コア技術であるAIを駆使しインテリジェントなロボット開発を進めてきた。その最初の成果が「Everyday Robots」で、家庭やオフィスで日々のタスクを実行するロボットを発表した。この開発ラインから分岐し、Intrinsicは産業用ロボットを開発する。産業用ロボット市場では多くの企業から製品が投入されており、これから日本企業など先行企業との競争が始まることになる。

テスラは自動運転ベータ版の出荷を開始、クルマは市街地でドライバーの介在無しに自動で走行!!

テスラは自動運転ソフトウェアのベータ版のリリースを開始した。これは「Full Self-Driving(FSD)」と呼ばれ、クルマは市街地で自動で走行する。ついに、自動運転車が市場に投入された。ただ、このソフトウェアはベータ版で、最終製品が出荷されるのは2021年末となる。これに向けてAI開発が急ピッチで進んでおり、テスラはAI学会でコンピュータビジョンの開発状況を明らかにした。

出典: Tesla

自動運転技術の開発経緯

テスラの自動運転ソフトウェアFull Self-Driving(FSD)はAIで構成され、クルマにダウンロードすることで自動運転車となる。テスラは2020年10月にベータ版「FSD Beta」を公開し、先行ユーザが試験走行を進めてきた。テスラはこれを改良し、今週、最新版「FSD v9 Beta」のリリースを開始した。FSD v9 Betaは自動運転機能で、市街地をドライバーの介在無しに自動で走行する。FSD v9 Betaの最大の特徴は、LidarやRadarを使わないで、カメラの映像だけで自動走行できることにある。もはや、Radarも不要で、テスラ最新モデルはRadarの搭載を止め、カメラだけが実装され、センサーの構成がシンプルになった。

Full Self-Drivingとは

Full Self-Driving(FSD)とはAIで構成されたコンピュータビジョンで自動運転車の中核機能となる。カメラで捉えたビデオ画像をAIが解析し、オブジェクトの種類、オブジェクトまでの距離、及び、オブジェクトの移動速度を把握する。テスラはこのAIを「General Computer Vision」と呼び、屋外で汎用的に使えるコンピュータビジョンとしている。クルマは霧の中や雪道を走るが、General Computer Visionは視界が悪い環境も正しくオブジェクトを判定できる。(下の写真、試験走行中のFull Self-Driving)

出典: Andrej Karpathy

コンピュータビジョン学会

テスラのAI開発責任者であるAndrei Karpathyは、コンピュータビジョン学会「Conference on Computer Vision and Pattern Recognition(CVPR)」でテスラのAI開発状況を説明した。テスラの自動運転ソフトウェアFSD Betaは2000人が利用しており、170万マイルを無事故で走行した。更に、上述の通り、最新版FSD v9 Betaが公開され、学会ではこのモデルについてシステム概要が公開された。

テスラの開発戦略

テスラのターゲットはカメラだけで自動走行できるAIの開発にあり、Karpathyはそのための開発手法を明らかにした。Waymoはアリゾナ州で自動運転タクシーを運行しているが、カメラの他にLidarやRadarを使い、異なる種類のセンサーで周囲のオブジェクトを判定する。一方、テスラはLidarやRadarを使わないで、カメラだけで自動運転技術を開発する。極めて高度なコンピュータビジョンを必要とし、テスラはAIに会社の将来を託す形となった。

カメラの構造

クルマは前後左右に8台のカメラを搭載し、これらのビデオ映像をAIで解析し、周囲のオブジェクトを把握する(下の写真)。AIは8つのビデオ映像から周囲を3Dで把握して、オブジェクトの種類や距離や速度を把握する。

出典: Andrej Karpathy  

アルゴリズムの開発手法

テスラは高度なコンピュータビジョンを開発するために、ニューラルネットワークを大量のデータで教育する戦略を取る。クルマが走行中に遭遇する全ての状況を収集し、このデータを使ってニューラルネットワークを教育すると、自動走行できるポイントに到達すると考える。このため、テスラは大規模な教育データセットを構築した。このデータセットには100万のビデオが格納され、そこに映っているオブジェクトの数は60億で、それらにはタグが付加されている。

タグ付けとは

タグ付けとはビデオに映っているオブジェクトの属性を添付するプロセスを指す。教育データ開発では、カメラに映ったオブジェクトに(下の写真上段)、その属性を付加する作業が必要になる。通常、オブジェクトを四角の箱で囲い、その種別を付加する(下段)。タグ付け作業は専門会社に依頼するが、テスラの場合はオブジェクトの数が膨大で、人間がマニュアルで作業することはできない。このため、テスラはタグ付けを行うAIを開発し、これをスパコンで稼働させ大量のデータを処理する。スパコンがビデオを読み込み、そこに映っているオブジェクトの種類を判定し、自動で名前を付加する。

出典: Andrej Karpathy  

世界最大規模のスパコン

このプロセスは大規模な計算環境を必要歳、テスラはスパコンを独自に開発し、AIによるタグ付け処理を実行する(下の写真)。処理能力は1.8 exaFLOPSで世界のスパコンの中で第五位の性能となる(下の写真左側、プロセッサ部分)。プロセッサはNvidia A100をベースに760ノードで構成され、5760のGPUで構成される。また、メモリ容量は10 PBでネットワーク通信速度は640 Tbpsとなる(下の写真右側、ネットワーク部分)。自動運転AIを開発するには、世界でトップレベルのスパコンが必要となる。

出典: Andrej Karpathy  

ベータ版の評価

既に、先行ユーザはFSD v9 Betaをクルマにダウンロードし、自動運転機能を試験している。トライアルの様子はビデオで撮影されネットで公開されている。これらのビデオによると、テスラは市街地において信号機に従って走行し、また、一旦停止の交差点で順番を守って発進する機能も確認されている。複雑な市街地でドライバーの介在無しに自動で走行できることが示されている。同時に、道路標識を見落とすケースなども記録されており、まだ完ぺきではないことも分かる。FSD v9 BetaはあくまでLevel 2の自動運転支援システムであり、ドライバーはステアリングに手をかけ、先方を注視しておく必要がある。

出典: James Locke

大量のデータで教育すると自動運転車となるか

Muskは、FSDのAI技術の改良を重ね、2021年末までに最終製品を出荷すると述べている。今年末までに自動運転車を出荷できる根拠として、MuskはこのペースでAI開発を進めると、アルゴリズムのエラー率が大きく下がると予測している。FSDは自動で走行するが、AIが判断を間違えた時は、ドライバーが手動でこれを補正する。年末までに、AIが学習を重ねこの補正操作が不要となるとみている。上述の通り、AIを膨大な数のデータで教育すると、このポイントに到達できるという前提の下で開発を進めている。ただし、この仮定は実証されておらず、テスラにとっては大きな賭けとなる。あと半年でFSDが自動運転車になるのか、市場が注目している。