カテゴリー別アーカイブ: ロボティックス

Googleが産業用ロボット市場に進出、高度なAIでロボットのソフトウェアを開発、日本企業との競争が始まる

Googleの親会社であるAlphabetは産業用ロボットを開発するため独立会社「Intrinsic」を創設した。ロボットはムーンショット工場「Alphabet X」で開発されてきたが、ここを卒業し独立企業として製品化を目指す。Intrinsicはロボットの頭脳となるソフトウェアを開発する。日本企業は産業用ロボットで大きなシェアを占めているが、ここでGoogleとの競争が始まることになる。

出典: Intrinsic

Intrinsicの概要

Intrinsicは産業用ロボット(Industrial Robotics)のソフトウェアを開発する。ロボット本体のハードウェアではなく、その頭脳となるソフトウェアを開発する。産業用ロボットとは製造工場で組み立て作業などを行うロボットで、ソーラーパネルや自動車の製造ラインで使われる。つまり、Intrinsicは家庭向けのヒューマノイドではなく、製造ライン向けにロボットアームを稼働させるソフトウェアを開発する。

産業用ロボットを開発する理由

Intrinsicが産業用ロボットを開発する理由は製造業を中国から米国や欧州などの先進国に戻すためである。国際経済フォーラムによると、現在、全世界の製造量の70%を10の国が担っている(下のグラフィックス)。特に、中国はその28.4%を占め、世界の工場として稼働している。Intrinsicが開発するロボットを使えば、どこにでも簡単に製造ラインを構築できる。各国が自国に製造施設を持つことができ、新たなビジネスが生まれる。更に、消費地に近い場所で製造することで、製品を輸送する距離が短縮され、地球温暖化ガスの削減につながる。特に、米国は自国に製造業を呼び戻す政策を進めているが、2030年までに作業員が210万人不足すると予想され、これを産業用ロボットで補完する。

出典: Statista  

現行の産業用ロボットの限界

現在、家電製品や自動車の製造で産業用ロボットが使われているが、そのテクノロジーは旧態依然のままであり、これがロボットの普及を妨げている。産業用ロボットのソフトウェアは特定のタスクを実行するために書かれている。これはハードコーディングと呼ばれ、例えば、部品の溶接ではそれ専用にコーディングする。また、パネルを接着してケースを作るには、そのタスクに特化したコーディングをする。このため、タスクごとにソフトウェアを開発することになり、多数のエンジニアを必要とし、完成するまでに時間を要す。

Intrinsicのアプローチ

これに対し、Intrinsicは高度なAIを使いインテリジェントな産業用ロボットを開発する戦略を取る。チームは数年にわたり、産業用ロボットの視覚機能、学習能力、補正能力などを開発してきた。具体的には、オブジェクト認識技術(Perception)、深層学習(Deep Learning)、強化学習(Reinforcement Learning)など最新のAI技法を開発し、幅広いタスクを実行できる産業用ロボットを目指している。

出典: Intrinsic  

プロトタイプの検証

Intrinsicはこれらの機能を実装したプロトタイプを制作しその機能を検証した。ロボットは深層学習とフォース制御機能を搭載することで、異なる形状のUSB端子を正しい場所に最適な力で挿入することができる(上の写真)。開発に要した時間は2時間で、短時間で複雑な操作ができるロボットの開発に成功した。また、視覚機能や計画機能を搭載することで、二台のロボットが共同で家具のパネルを組み立てることができる(下の写真)。

出典: Intrinsic  

更に、ロボットが協調して木造家屋を組み立てることができる(下の写真)。これはチューリッヒ工科大学(ETH Zurich)のGramazio Kohler Researchで実施されたもので、四台のロボットが協調して家屋のパネルを組み立て接着剤で固定する。製造現場では多様なタスクを実行する必要があるが、プロトタイプは短時間で開発され、ロボットが汎用的な作業ができる目途がついたとしている。

出典: Gramazio Kohler Research, ETH Zurich

ムーンショットを卒業

チームはムーンショット工場「Alphabet X」(下の写真)で5年半にわたり、プロトタイプの開発を進めてきたが、これからはIntrinsicで産業用ロボットの商用化を目指す。対象分野は家電産業や自動車製造やヘルスケアで、パートナー企業と商用モデルを開発する。

出典: VentureClef  

ロボット開発の歴史

Googleのロボット開発は2013年に始まり、Boston Dynamicsなど6社を相次いで買収した。この中には日本企業Schaftも含まれていた。ロボット開発プロジェクトは「Replicant」と呼ばれ、Androidの生みの親Andy Rubinの下で進められた。しかし、プロジェクトで目立った成果は無く、GoogleはReplicantを中止した。

ロボット開発を再開

その後、Googleはソフトウェアに重点を移し、ロボット開発を再開した。コア技術であるAIを駆使しインテリジェントなロボット開発を進めてきた。その最初の成果が「Everyday Robots」で、家庭やオフィスで日々のタスクを実行するロボットを発表した。この開発ラインから分岐し、Intrinsicは産業用ロボットを開発する。産業用ロボット市場では多くの企業から製品が投入されており、これから日本企業など先行企業との競争が始まることになる。

シリコンバレーの新型コロナウイルス出口戦略、ロボットによる配送サービスが始まった

都市閉鎖を解除して元の生活に戻るためには、経済活動の再始動とウイルス感染対策の二つの車輪をバランスよく回す必要がある。新型コロナウイルスの出口戦略の策定が求められるなか、シリコンバレーはハイテクでその解を探っている。マウンテンビュー市はロボットによる宅配サービスを認め、非接触で安全なソリューションとして注目されている。

出典: VentureClef

配送ロボット「Starship」

このサービスを始めたのはサンフランシスコに拠点を置くベンチャー企業Starship Technologiesで、荷物配送ロボット「Starship」の営業運転を始めた。Starshipは市街地のレストランと提携し、注文を受けた料理をロボットで消費者宅まで配送する。サンタクララ群は外出禁止令を発令し、レストランは店舗での営業を禁止され、事業者はビジネスの存続に危機感を募らせている。

実際に利用してみると

今月から運用が始まり、実際に使ってみたが、可愛いロボットがランチを配送してくれた。使い方は従来の宅配サービスと同じで、スマホアプリで食事を注文すると、人間に代わりロボットが目的地まで自動走行して食事を届ける。(下の写真、左側:多くのレストランがロボット宅配サービスを展開中、右側:その中でCrepevineというレストランでクレープを注文)。

出典: VentureClef

レストランで料理を積み込む

注文を受けたレストランは料理を調理して、店頭にスタンバイしているロボットの荷物ベイにパッケージを積み込む(先頭の写真)。店舗スタッフは料理を積み込む前に、荷物ベイを殺菌ワイプで拭き、コロナ対策が取られる。準備が整うと、店舗スタッフは専用アプリを操作してロボットを発進させる。

ロボットは安全に走行

ロボットは目的地まで自動で歩道を走行する。ロボットの走行速度は意外に速く、駆け足しないと追い付かない。しかし、人込みや障害物がある個所では速度を落とし、安全な経路を見つけてゆっくり通過する。横断歩道では信号を認識でき、赤の時は歩道で停止し(下の写真、左側)、青になると発進し道路を横断する。歩道でも駐車場の入り口では一旦停止し、安全を確認して進行する(下の写真、右側)。

出典: VentureClef

目的地に到着

ロボットが目的地に到着すると、スマホアプリにメッセージが表示される。ここで「Unlock」ボタンを押すと(下の写真、左側)、荷物ベイのカバーが開錠される。カバーを空けて(下の写真、右側)、積まれているパッケージを取り出す。そしてカバーを閉じ、スマホアプリの「Send Robot Away」ボタンを押すとロボットは自動でレストランまで帰還する。

出典: VentureClef

ロボットの安全性

ロボットと一緒に歩いてみたが、慎重に走行し安全であると感じた。人間が歩道で立ち話をしていて、通路を塞いでいるときは、ロボットはゆっくりとその脇を通過した(下の写真、左側:このケースでは歩行者が道を譲った)。信号のない横断歩道を渡ることができ、この際は、慎重に左右を見てクルマがいないのを確認して横断した(下の写真、右側)。これだと市街地で歩行者が行き交う中で走行することができると感じた。

出典: VentureClef

レストランやスーパーマーケットが参加

市街地で多くのロボットが運行しているが、これらは複数の店舗で共有して使われている。レストランの他にカフェやスーパーマーケットがロボットを使って商品を配送している。ロボットはステージングエリアで待機しており(下の写真)、リクエストに応じて店舗に移動する。また、配送先から帰還したロボットはここに停止し次の指示を待つ。

出典: VentureClef

自律走行の仕組み

Starshipは自動運転車のように自律的に走行する。車体には10台のカメラとセンサーを搭載し、カメラで周囲360度の映像を撮影する。カメラがとらえたイメージをAI(Convolutional Neural Network)で解析し、周囲のオブジェクトの種類や歩道を把握する。ロボットは高額なLidarは搭載しておらず、カメラだけで走行する構成で、AIの技術力がカギになる。

小さなAI

更に、AIは搭載されているGPUで処理され、大量の電力を消費する。自動運転車と異なり、配送ロボットはバッテリー容量が小さいため、ニューラルネットワークのサイズを小さくした軽量AI「Tiny AI」の開発が求められる。

新型コロナウイルス

Starshipの運用が始まった背景には新型コロナウイルスによる都市閉鎖がある。レストランは店舗での営業が禁止され、出前サービスと店頭受け取りに限定され、売り上げが大きく落ち込んでいる。スーパーマーケットはオープンしているが消費者は感染のリスクを感じ足が遠のく。このため、人間と人間が接触しないで配送できるロボットが注目されている。

マウンテンビュー市の判断

マウンテンビュー市においてStarshipは企業キャンパス(Intuit社)でロボット配送サービスを展開しているが、安全性の観点から市街地における運用は許可されなかった。しかし、都市ロックダウンでレストランなどが苦境に陥り、これを救済するために市議会はStarshipが公道で配送サービスを実行することを認める判断を下した。これは「Delivery Device Pilot Program」として運用され、一定の制限(同時に走行できる台数は10台まで)の下で、安全を確保して実施される。

出典: VentureClef

新型コロナウイルス社会

新型コロナウイルス社会で安全に事業を再開するには自動化がカギとなる。人間に代わりロボットが商品を配送することで感染のリスクを下げる。一方、歩行者で込み合う歩道で接触することなく安全に運行するためには、ロボットの技術開発だけでなく、歩道の整備など社会インフラの見直しも必要になる。更に、住民はロボットが生活空間に入ることを受け入れることが前提条件で、そのための啓もう活動も求められる。解決すべき課題は少なくないが、新型コロナウイルスの出口戦略ではハイテクの活用がカギとなる。

UC Berkeleyは高度なAIでロボットの頭脳を開発、ピッキングロボがアマゾン倉庫で仕分け作業をする日

2020年1月、サンフランシスコでAIのカンファレンス「RE•WORK」(#reworkAI)が開催された。「Deep Learning Summit」(#reworkDL)という分科会でロボティックスの最新技法が議論された。ピッキングロボ(商品仕分け作業ロボ)に焦点をあて、技術開発の歴史を振り替えり、ロボットの頭脳を構成するAI技法の進化について講義された。AIの進化がロボットの機能や性能を押し上げ、ピッキングロボが人間の技能を凌駕する日が見えてきた。

出典: Ken Goldberg

ピッキングロボ

このセッションではカリフォルニア大学バークレー校のKen Goldberg教授(上のグラフィックス、中央の人物)が「The New Wave in Robot Grasping」と題して講演した。講義ではピッキングロボがオブジェクトを掴む技法について、それを制御するAIにフォーカスし、技術進化の過程や開発思想が示された。ピッキングロボとは商品を仕分けするロボットで、アームの先端に装着されたグリッパーで商品を掴み、これを別のトレイに移す作業をする(下の写真)。この際、グリッパーは異なる形状のオブジェクトをいかに正確に速く掴むことができるかがカギになる。

ロボット開発の流れ

ピッキングロボの性能や機能はロボットの頭脳であるAI技法により決まる。AIの進化によりロボットがインテリジェントになり、オブジェクトを上手く掴むことができるようになる。第一世代は「数値解析」というアプローチで、数学的にピッキングの問題を解いてきた。第二世代は「経験則」で、ロボットが繰り返し掴み方を学習し技量をあげてきた。現在は第三世代で、両者を組み合わせた「複合型」の開発思想を取っている。

出典: AUTOLAB

第一世代:Robotics 1.0

第一世代は「数値解析」でオブジェクトの形状や重心などを把握し、ロボットがこれを掴んだ時の成功確率を計算するアプローチを取る(下の写真)。計算して成功確率が高い個所をロボットが掴む(下の写真では右端)。しかし、オブジェクトの形状は複雑で、掴み方は沢山ある。このため、この手法では計算量が膨大になり精度が上がらない。(このネットワークは「Dex-Net 1.0」と呼ばれ、Goldberg教授らにより開発され、GitHubに公開されている。)

出典: Jeffrey Mahler et al.

第二世代:Robotics 2.0

このため、第二世代ではロボットがオブジェクトの掴み方を繰り返し学習し技量をあげるアプローチ「経験則」が取られた。ここでは深層強化学習(Deep Reinforcement Learning)が使われ、ロボットは膨大な数のピッキングを繰り返す。この手法の代表がGoogleの「Arm Farm」で、複数のロボットを並列に稼働させ学習効率を上げた(下の写真)。しかし、この手法ではAIが技量を学習する速度が遅く、業務で使えるようになるには長い年月を要す。

出典: Google

第三世代:Robotics 3.0

第三世代では両者の技術を統合して技量をあげるアプローチ「複合型」が取られた。ここではコンピュータビジョン(CNN)が重要な役割を果たし、3Dカメラが捉えたオブジェクトを立体的に把握し、掴む場所を特定する(下の写真)。具体的には、オブジェクトの形状を把握して、数値解析の手法で掴む場所の候補を把握する。次に、コンピュータビジョンはこれらの候補を解析し、掴むことに成功する確率を計算する。ロボットは成功確率の高い場所を掴む。このAIは数多くの3Dモデルで掴み方を学習しており、経験から最適な場所を特定できる。(このネットワークは「Dex-Net 2.0」と呼ばれる。)

出典: Jeffrey Mahler et al.

吸引方式のグリッパーにも対応

通常のグリッパーに加え、吸着パッド型のグリッパー(Suction Cup Gripper)についてもAIが開発されている。このモデルはネットワークが吸引するために最適な場所を特定する。モデルはオブジェクトの表面に吸引する場所を示す(下の写真)。緑色が安定して掴めるポイントで、赤色が不安定なポイント示す。吸着パッド型のグリッパーは緑色のポイントに当てられ、ここを吸引してオブジェクトを持ち上げる。(このネットワークは「Dex-Net 3.0」と呼ばれる。)

出典: Jeffrey Mahler et al.

最新モデルは二種類のグリッパー対応

最新モデルは異なるグリッパーで構成されたロボットハンドを制御することができる。ピッキングロボは通常のグリッパー(Parallel-Jaw Gripper)と吸着パッド型グリッパー(Suction Cup Gripper)から構成され(下の写真)、AIはこれらグリッパーがオブジェクトを掴む場所を算定する。ロボットは最適なグリッパーを使ってオブジェクトを掴むことができ精度と速度が向上する。このネットワークはオブジェクトを掴む精度は95%以上で、毎時300個のピッキングができる。(このネットワークは「Dex-Net 4.0」と呼ばれる。)

出典: Jeffrey Mahler et al.

応用分野 

ピッキングロボはEコマースの配送センター(下の写真)に適用されることを想定している。ここでは人間がトレイから商品を取り出し、別のトレイに移す作業を繰り返す。この作業をピッキングロボが代行する。特に、アマゾンなどがこの技術に注目しており、ピッキングロボを導入し処理効率を向上させることを計画している。ただ、ロボットが人間の仕事を奪うという問題が発生するため、導入には雇用対策も求められる。一方、商品を移し替えるような単純作業は人気がなく、常に人手不足の状態で、これをピッキングロボが解消すると期待している。

出典: Seattle Times  

ロードマップ

ピッキング技術はこれで完成ではなく、ピッキングロボは奇妙な形状をしたオブジェクトや初めてみるオブジェクトを正しく掴めるかが今後の課題となる。異なる形状のオブジェクトを正しく掴むことがロボット技術のグランドチャレンジで、各社がピッキング技術開発でしのぎを削っている。AIの進化でロボットのピッキング精度と速度が大きく向上し、Dex-Net 4.0のケースではロボットが毎時300個のオブジェクトを掴むことができる。人間の能力は毎時400-600個で、近いうちにピッキングロボがこれを上回るといわれている。ピッキングロボをEコマースの配送センターに適用することが視界に入ってきた。

Googleは家事や介護ができる汎用学習ロボットを開発中、高度なAIでブレークスルーを狙う

Googleの持ち株会社Alphabetはロボット開発を進めているが、2019年11月、最新状況を公開した。ロボットは「Everyday Robots」と呼ばれ、家庭やオフィスで日々のタスクを実行する。ロボットは自分で学習する機能を備え、煩雑な環境の中を自律的に動き、ごみの分別などをこなす。最終的には家庭に入り、家事をこなし、高齢者の介護を手掛ける。Everyday Robotsは高度なAIが求められ、Google BrainやWaymoと密接に開発研究を進める。

出典: Alphabet X

ロボットの概要

ロボットはGoogleのムーンショット工場「Alphabet X」で開発されている。ロボットは駆動機構に円柱状の本体が乗り、ここにアームが接続されている(上の写真)。頭部にカメラなどのセンサーを搭載し、AIがイメージを解析し周囲の環境を理解する。煩雑なオフィスの中を社員に交じって安全に移動する。

ロボットの視覚とアーム操作

ロボットはアーム先端のグリッパーで日常のオブジェクトを掴んだり動かしたりする(下の写真)。ロボットは搭載されたセンサーで収集したデータを解析し、何を見ているのか、また、何を聞いているのかを理解する。更に、ロボットは世界の中でどこにいるのかを把握し、日常生活の中で人間に交じり、タスクを安全に実行する。つまり、ロボットは常識を持ち人間の同僚のように振る舞う。

出典: Alphabet X

ロボットの位置付け

いまのロボット(下のグラフ、Industrial Robotics)は管理された環境で厳密に定義されたタスクを実行する。自動車工場の製造ロボットがこれに該当し、規定されたパーツを定義された動作とタイミングでシャシに搭載する。このために、操作を逐一プログラミングする構成で、ロボットはそれに沿って正確に稼働する。この結果、ロボットはオフィスや家庭のように予定外の事象が発生する環境では動くことはできない。

出典: Alphabet X

汎用学習ロボット

これに対して、Everyday Robotsは人間に交じり、想定外の事象が起きる環境で、日々のタスクを安全に実行する(上のグラフ、Everyday Robots)。自動運転車より難易度が高いというポジショニングとなる。また、Everyday Robotsは人間のしぐさを見てタスクの実行方法を学び、また、他のロボットから学習する機能もある。そして、ロボットはクラウドのシミュレーション環境の中でタスクを学んでいく(下の写真、Lidarで周囲のオブジェクトを把握している様子)。

出典: Alphabet X

ごみの分別を学習

Everyday Robotはごみを分別するタスクを学習している(下の写真)。箱に入っているごみを、ボトルはリサイクルのトレイに、また、紙コップはランドフィルのトレイに移し替える。ロボットはごみの種類を把握して、それをグリップで掴み、指定された場所に移す。学習を重ね、今では95%の精度でごみの分別ができる。数多くのロボットが並列してごみ分別タスクを実行することで学習速度を上げる。

出典: Alphabet X

Googleのロボット開発の歴史

Googleのロボット開発は紆余曲折を経て今の形に収束した。Googleがロボット開発に着手したのは2013年12月で、Android生みの親Andy Rubinが指揮を取った。GoogleはBoston Dynamicsなどのロボットベンチャーを相次いで買収した。しかし、ロボット開発は難航し、プロジェクトは中止となり、GoogleはBoston DynamicsをSoftBankに売却した。更に、Rubinは人事問題で2014年末に会社を離れ、Googleのロボット開発は失敗の象徴として語られる。

ロボット開発再開

しかし、2016年ころ、Googleのロボット開発はAlphabet Xに集約され、ここで再出発することとなった。今度は最新のAIをロボットに適用することでインテリジェントなロボットを目指した。Googleのアプローチはコモディティ・ハードウェアに最新のAI技法を取り込み高度なロボットを開発するというもの。研究施設にはロボットアームが40台並び、オブジェクトのピッキングなどのタスクが実施された。多数のロボットアームが稼働することから、この施設は「Arm Farm」と呼ばれた。ロボットが多重でタスクを実施することでアルゴリズムを教育する速度が向上した。

深層強化学習

この頃、DeepMindは深層強化学習(Deep Reinforcement Learning)という手法で囲碁システム「AlphaGo」を開発し、人間の囲碁のチャンピオンを破った。Googleはこの手法をロボットに応用し、学習速度をあげるアプローチを取った。AlphaGoがシミュレーション環境で囲碁の技を磨いてきたように、ロボットもシミュレーション環境でピッキングを繰り返しスキルを上げた。

出典: Google

Alphabet Xキャンパス

Everyday Robotはこの延長線上にあり、ロボットは、昼間は研究所の中でごみ分別作業を繰り返し、夜間はシミュレーション環境でこのタスクを実行する。ちょうど、自動運転車Waymoが市街地を走行し、同時に、シミュレーション環境で試験走行を繰り返すモデルに似ている。WaymoとEveryday RobotはAlphabet Xの同じキャンパスで開発されている(下の写真)。また、ロボットはWaymoが開発したLidarを搭載しており、これで周囲のオブジェクトを把握し、自動で走行する。

出典: VentureClef

ブレークスルーはあるか

Everyday Robotsは深層強化学習など高度なAIを搭載し、自分でごみの分別方法を学んでいく。ごみの分別ができると次のタスクに進むが、既に基礎教育ができているので、研究チームは新しいスキルを短時間で習得できると見込んでいる。ロボットは異なるタスクでも学習速度をあげ、Everyday Robotは汎用学習ロボットに到達するというシナリオを描いている。しかし、この仮説が実証された事例はなく、本当に汎用学習ロボットに到達できるのか、大きな挑戦となる。Googleの高度なAIでこの壁を破れるのか、世界が注目している。

Googleは新体制でロボット開発を強化、高度なAIでブレークスルーを狙う

Googleは新体制でロボット開発を加速している。新組織は「Robotics at Google」と呼ばれ、Vincent Vanhouckeが指揮を執る。VanhouckeはAI研究部門「Google Brain」でイメージ認識技法(Computer VisionやPerception)の研究をリードしてきた。新組織はGoogle本社にオフィスを構えAI部門と連携して研究開発を進める。🔒

出典: Andy Zeng et al.