カテゴリー別アーカイブ: Google

Google Glassが企業版として復活、早速試してみたが性能が大幅に向上しアプリがサクサク動く

Googleは2019年5月、企業向けスマートグラス最新モデル「Glass Enterprise Edition 2 (Glass EE2)」(下の写真) を発表した。Glass EE2はプロセッサが強化され、AI(コンピュータビジョンと機械学習)が組み込まれた。AR・VRカンファレンス「Augmented World Expo」でGlass EE2とそのアプリが紹介された。実際に使ってみると、Glass EE2は操作に対しレスポンスが速く、アプリがサクサク動き、性能アップを肌で感じた。

出典: VentureClef  

スマートグラス開発経緯

Googleのスマートグラスは開発方針が二転三転したが、企業向け製品とすることで方向が定まった。Googleは、2013年、スマートグラスのプロトタイプ「Glass Explorer」を投入し、次世代のウェアラブルの姿を示した。センセーショナルにデビューし市場の注目を集めたが、カメラによるプライバシー問題から、2015年、GoogleはGlassの販売を中止した。

企業向けスマートグラスに方針変更

Glass Explorerは消費者向け製品として位置付けられたが、Googleはそれを企業向けスマートグラスに仕立て直し、秘密裏に開発を続けていた。Googleは2017年、企業向けスマートグラスとして「Glass Enterprise Edition」を発表した。AR機能を使った業務用スマートグラスが登場し、製造、運輸、医療分野でトライアルが始まった。

Glass Enterprise Edition 2の概要

市場の反応は良好で、Googleは2019年5月、企業向け最新モデル「Glass Enterprise Edition 2」をリリースした(下の写真)。このモデルはプロトタイプの段階を卒業し、Googleの製品として位置付けられている。Glass EE2はプロセッサに「Qualcomm Snapdragon XR1」を採用し、演算性能が大幅に向上した。カメラ性能も強化され、インターフェイスとしてUSB-Cがサポートされた。更に、バッテリー容量が増え、一回の充電で使える時間が大幅に伸びた。(Glass EE2の形状は先頭の写真の通り、下の写真はこれにSmith Optics社製のフレームを装着したもの。)

出典: Google  

プロセッサ

Glass EE2が搭載しているQualcomm Snapdragon XR1はARとVRのヘッドセット向けに開発されたプロセッサで複数の演算機構から構成される。プロセッサはCPU(Kryo)、GPU (Adreno)、DSP(Hexagon Vector Processor)から成り、イメージ処理だけでなく、これらがAIエンジンとして機能しニューラルネットを高速で処理する。これにより画像認識(Object Classification)、ポーズ認識(Pose Prediction)、音声認識(Language Understanding)機能が大幅に向上した。

ソフトウェア

Glass EE2は「Android Oreo」を搭載し、基本ソフトが一新され、システム開発が容易になった。例えば、ライブラリやAPIを使いGlass EE2を既存システムと連携できる。また、デバイス管理機能「Android Enterprise Mobile Device Management」をサポートしており、利用企業は多数のGlass EE2を一括管理でき、業務での展開が容易になる。

パートナー企業経由で販売

Glass EE2はGoogleではなく、パートナー企業が販売する形態を取る。パートナー企業はスマートグラス向けに業務アプリを開発し、デバイスとともに販売する。既に多くのアプリが提供されており、主要企業で使われている。Glass EE2の価格は999ドルで2019年5月から販売が始まった。

製造業向けソリューション

既に、Glass EE2向けに業務ソリューションが登場している。UpskillはVienna(バージニア州)に拠点を置くベンチャー企業で、スマートグラス向けの製造ソリューションを開発している。これは「Skylight」と呼ばれ、ARを部品組み立てのプロセスに適用する。Boeingで採用され、航空機のワイアリング手順をスマートグラスに表示する(下の写真、右上のウインドウ)。作業者は視線を移すことなく、この手順(ワイヤを接続するスロットを表示)に従って作業を続けることができ、作業効率が大きく向上したと報告している。

出典: Upskill  

アプリのデモを体験

シリコンバレーで開催されたカンファレンス「Augmented World Expo」でUpskillはスマートグラス向けのアプリSkylightを出展し、AR製造ソリューションの利便性をアピールした。(下の写真、右側)。実際にこのアプリをGlass EE2で使ってみた。このアプリは機器製造で配線手順をARで表示するもので、操作手順に沿って作業をしてみた。Glass EE2のディスプレイにケーブル番号とスロット番号が示され、これに従って配線した(下の写真、左側、デモシステムと使用したGlass EE2)。操作マニュアルに視線を移す必要はなく、ハンズフリーで作業ができ、これは確かに便利なソリューションだと感じた。

出典: VentureClef  

Glass EE2の進化

Glass EE2を操作するとGlass Explorerから大きく進化しているのを感じた。Glass EE2はディスプレイの輝度と解像度が増し、文字や図形が鮮明に表示される。Glass EE2にタッチすると、アプリは機敏に反応し、操作が軽く感じる。Upskillによると、BoeingはGlass EE2が軽量で一回の充電で長時間使える点を評価しているとのこと。Glass EE2はもはやプロトタイプではなく、企業で使えるレベルまで完成度が向上した。

AI+ARアプリが登場か

Glass EE2はAIアプリをデバイス上で稼働させることができる構造となっている。このため、AIを活用した高度な業務ソリューションを開発できる。AIとARを組み合わせると、どんなアプリとなるのかが気になる。Glass EE2向けにオブジェクト認識機能や音声認識機能を組み込んだアプリが候補となる。再び、スマートグラス市場が動き出し、今度はAIと組み合わせた形でイノベーションが起こりそうだ。

Googleは次世代「Assistant」を公開、AIがスマホで稼働し言葉でアプリをサクサク使える

Googleは2019年5月、開発者会議「Google I/O 2019」を開催し、最新の製品や技術を披露した(下の写真、Sundar Pichaiの基調講演)。今年のテーマは「Help」で、人々を助け社会の役に立つAIに重点が置かれた。怖いほど先進的なAIの発表はなく、生活を便利にするAI技術が数多く登場した。この模様はYouTubeでリアルタイムで放送された

出典: Google  

発表概要:新製品

ハードウェアではミッドレンジのスマホ「Pixel 3a」と「Pixel 3a XL」が発表された(下の写真、左側)。また、スマートホームハブの最上位機種「Nest Hub Max」が登場(下の写真、右側)。従来のハブ「Google Hub」は「Nest Hub」と改名され、スマートホーム商品として位置付けられた。ソフトウェアでは基本ソフト最新モデル「Android Q」が公開された。Qはセキュリティやプライバシー保護に重点を置くデザインとなっている。

発表概要:AI関連技術

AI関連では「Google Assistant」の機能を大幅に強化した次世代AIアシスタント「Google Assistant Next Generation」が発表された。AIを軽量化しスマホで稼働させることで、高速処理を実現。また、GoogleはAIのバイアス(偏った判定)を検知する技術「TCAV」を公開した。更に、AIを人類のために活用するプロジェクト「AI for Social Good」を紹介し、GoogleのAI開発のスタンスを明らかにした。

出典: Google

次世代Google Assistant

多くの新技術が登場したが、Googleは次世代Assistantに多くの時間を割いて、その機能を紹介した。現在、AssistantのAI (Recurrent Neural Networks、言葉を理解するAI)はクラウドで稼働しており、そのサイズは100GBを超える。スマホでAssistantを起動するとそのタスクはクラウドで実行され、結果がスマホに返される。次世代AssistantではAIサイズが0.5GBに軽量化され、これがスマホで実行される。このため、処理時間が大幅に短くなり、最大10倍の高速化を実現した。

アプリを言葉で高速実行

これにより言葉でアプリを連続してリアルタイムで操作できる(下の写真)。テキストメッセージを送信するときは、「Reply Justin, Had a great time with my family」と指示する。写真アルバムを検索するときは、「Show me my pictures from Yellow Stone」と、また、その中で動物が写っている写真を選ぶときは、「The ones with animals」と語る。複数のアプリを音声でサクサクと処理できる。

出典: Google

長いメールを言葉で生成

次世代Assistantは音声認識機能が大幅に向上し、長いメールを言葉だけで生成できる(下の写真)。Assistantに「Send mail to Jessica」と指示すると、メールアプリが起動。ここにメール文を音声で読み上げるとテキストに変換される。メールの題名を指定するときは「Set subject to Yellow Stone Ventures」と述べる。今までは短いメールに限られていたが、次世代Assistantは正確に音声をテキストに変換するので、長いメールでも苦にならない。

出典: Google

Duplexでレンタカーを予約

Googleは昨年、AIがレストランに電話をかけ予約する機能「Duplex」を発表し市場を驚かせた。今年は、Duplexでウェブサイトを操作する機能を発表した。DuplexはAssistantと連携して稼働する。Assistantにタスクを指示すると、Duplexがウェブサイトにアクセスし、これを実行する。Duplexはウェブサイトでレンタカーを予約できる。Nationalのレンタカーを予約する際は「Book a car with National for my next trip」と指示する。DuplexはNationalのウェブサイトにアクセスし予約プロセスを起動(下の写真)。Duplexは利用者のカレンダーから次の出張予定を把握しており、予約日時を自動で入力する。また、Duplexは前回借りた車種を表示し、利用者の氏名や連絡先を入力する。利用者はこれら入力された情報を確認して予約を実行する。数多くの画面でデータを入力する必要はなく、実行ボタンを押すだけで予約が完了する。

出典: Google

個人に沿ったサービス

現行Assistantはその機能が拡充され、利用者の情報を幅広く把握することで、個人に沿ったサービスを提供する。個人情報は「Personal Preference」のページで事前に登録しておく。また、家族の情報、よく訪れる場所、好みの音楽などを登録しておくと、Assistantはこれらに沿った情報を提示する。「Nest Hub」(旧Google Hub)にディナーのレシピを尋ねると、Assistantは利用者は地中海料理が好きであることを理解しており、「Classic Israeli Shakshuka」を推奨する(下の写真)。また、Assistantは環境も理解しており、朝の時間帯にレシピを尋ねると朝食の作り方を示す。

出典: Google

Assistantをクルマで利用

Assistantはクルマの中で音声によるナビゲーションのほか、メッセージング、電話、メディア操作ができるようになった(下の写真)。クルマのダッシュボードにスマホを装着し、「Let’s drive」と述べてこの機能を起動する。Assistantは利用者の予定を把握しており、ディナーの予約があればそのレストランまでのナビゲーションを始める。Assistantは利用者の好みの音楽を把握しており、それをスマホ画面に表示する。また、電話を受信するとAssistantは発信元の名前を表示する。

出典: Google

クルマを遠隔操作

Assistantは遠隔でクルマを操作する機能を搭載した。クルマに乗る前に車内の空調を起動するときは「Turn on the car A/C to 70 degrees」と指示する。この他に、ガソリン残量やドアロックを確認できる。対象となるメーカーとシステムはHyundaiの「Blue Link」とMercedes-Benzの 「Mercedes me connect」。

提供時期

次世代AssistantはPixelの次のモデルに搭載され、出荷時期は2019年末の予定。Googleは次世代のスマホモデルを発表していないが、これで今年末に出荷される予定であることが分かった。DuplexはAndroid OSを搭載したデバイスで利用でき出荷時期は2019年末の予定。また、これ以外のAssistant新機能は2019年の夏から出荷が始まる。

控えめの発表

いま個人情報管理に関しハイテク企業に厳しい目が向けられている。収集した個人データがどのように利用されているのか、GAFAに対して透明性が求められている。基調講演ではPichaiが自らGoogleの個人データ管理の指針とそれを実装したツールを説明した。講演はお祭りムードではなく、新製品発表は控えめに行われた。全体を通して、AI技法をアピールするより、開発された技術がどう生活に役立つかを示し、AI応用技術に軸足が移っているのを感じた。

Wingは航空機事業者として認可される、Googleグループはドローン輸送事業に向け大きく前進

Alphabet子会社「Wing」は2019年4月、米国で初めてドローンによる物資配送の認可を得た。アメリカ連邦航空局(Federal Aviation Administration、FAA)がWingを航空機事業者と認定したもので、ドローンで商品を顧客サイトまで輸送できることとなった。Wingが認可を受けた最初の企業で、米国においてドローンを一般空域(Air Space)で運用できることになり、商用運行への大きな一歩となった。🔒

出典: Wing

Waymoは無人タクシーアプリを一般に公開、いよいよ自動運転車サービスが始まる

Waymoは、2019年4月、無人タクシーサービス「Waymo One」向けのアプリを公開した。このアプリをGoogle Playからダウンロードして利用する。Uberを使う要領で、アプリからWaymoに配車をリクエストする(下の写真)。無人タクシーサービスはアリゾナ州フェニックスで展開されている。今までは実証試験として利用者を限定してきたが、今月からこのサービスが一般に公開された。

出典: Waymo

商用サービスを拡大

Waymoは2017年から、アリゾナ州フェニックスの特定地域で無人タクシーの実証実験「Early Ride Program」を進めてきた。2018年12月、Waymoはこれを商用ベースに切り替え、「Waymo One」という名称で無人タクシーサービスを開始した。Waymo Oneは実証実験への参加者を対象に限定的に進められてきたが、今月からこのサービスを一般に公開した。

専用アプリを公開

Waymo Oneを使うには、公開されたアプリをスマホにダウンロードして利用する。ただ、すぐに利用できるわけではなく、アプリはWaymo Oneの利用申請書となっている。アプリを起動するとWaymo One利用申し込みの画面となり、ここで利用を申請し、これが認可されるとサービス利用できる(下の写真)。当初はフェニックスの特定地域に居住している住民が優先される。

出典: VentureClef

アプリの使い方

申請が認可されると公開されたアプリからWaymo Oneのサービスを利用できる。配車をリクエストする際には、乗車場所(Pickup Point)と降車場所(Dropoff Point)を指定する(下の写真左側と中央)。これに対してアプリはこの近傍の最適な乗車場所と降車場所を示し、これでよければリクエスト(Request Ride)ボタンを押すとクルマが配車される(下の写真、右側)。これは有料のサービスであるが料金体系は公開されていない。

出典: Waymo

料金を計算すると

一方、アプリの画面には、Element Chandler Fashion CenterからDowntown Chandlerまで走行すると料金は$7.32との記述がある。この区間の距離は4.5マイルで所要時間は11分程度で、ここから計算すると料金単価は$1.63/マイルとなる。また、同じ区間をUberXで走行すると$9.92となり、30%ほど安く設定されている。

車内のディスプレイ

クルマが配車され乗車すると、座席の前のディスプレイに目的地と所要時間・到着予定時間が示される。これを確認して「Start Ride」ボタンを押すとクルマは発進する。走行中はクルマのディスプレイに運行状況が表示される(下の写真)。ここにクルマが認識する周囲の状態が表示され、車線や横断歩道、他の車両や歩行者などがグラフィカルに表示される。走行に影響するオブジェクトはハイライトして示される。到着地でクルマを降りると料金はアプリに課金される。

出典: Waymo

オペレーターのサポート

走行中に乗客はWaymo Oneのオペレーターと会話することができる。ディスプレイの「Support」ボタンを押すと、電話がコールセンターに繋がり、オペレーターと話をすることができる。例えば、「行き先を変更したいがどうすればいいのか?」などと問い合わせることができる。無人タクシーではオペレーターがドライバーに代わり乗客をサポートする。

一般公開の意義

Waymo Oneが一般に公開されたことは、無人タクシーの商用サービスに向け大きく前進したことを意味する。実証実験では参加者は厳しい制約の下でWaymo Oneを利用してきた。参加者は守秘義務にサインし、知りえた情報を外部に公開することは禁止されていた。また、社内でビデオや写真撮影は禁止され、また、参加者以外の人を同乗させることはできなかった。サービスの一般公開でこれらの制限が撤廃された。

体験レポート

これに伴い、ネット上でWaymo Oneの乗車体験レポートが目立つようになった。ある利用者は、Waymoが渋滞のハイウェイでうまく車線変更できた様子をYouTubeに掲載している。一方、ショッピングセンターの道路が大勢の歩行者で込み合い、クルマは立ち往生したとの報告もある。結局、アルゴリズムがタイムアウトとなったのか、セーフティドライバーがコールセンターに連絡し、ルートを再計算して再起動した。当面はセーフティドライバーが搭乗し、クルマが完全に自動走行できるにはもう少し時間がかかりそうな様子がうかがえる。

出典: Waymo

カリフォルニア州での営業運転

コールセンターはフェニックス、オースティン、及び、マウンテンビューに開設されている。フェニックスの次はこれらの都市でWaymo Oneの営業運転が始まる可能性が高い。事実、Waymoはカリフォルニア州で自動運転車を無人で運行するための認可を受けた。自動運転車の走行ではセーフティドライバーの搭乗が義務付けられていたが、これにより無人車両を公道で走らせることができるようになった。Waymoが認可を受けた最初の企業となり、Waymo Oneの営業運転の環境が整ってきた。

Googleは新体制でロボット開発を強化、高度なAIでブレークスルーを狙う

Googleは新体制でロボット開発を加速している。新組織は「Robotics at Google」と呼ばれ、Vincent Vanhouckeが指揮を執る。VanhouckeはAI研究部門「Google Brain」でイメージ認識技法(Computer VisionやPerception)の研究をリードしてきた。新組織はGoogle本社にオフィスを構えAI部門と連携して研究開発を進める。🔒

出典: Andy Zeng et al.