月別アーカイブ: 2018年6月

トランプ政権は初めてAI戦略を策定、中国の追い上げが安全保障の脅威となる

ホワイトハウスは2018年5月、AIに関する政策を始めて公表した。テクノロジーに関するアドバイザーMichael Kratsiosがレポートの形 (下の写真) で発表した。これによると、トランプ政権はAIを重点技術と位置づけ、AI関連の研究開発予算を拡大する。連邦政府として初めてAI政策を策定したことの意義は大きい。一方、このタイミングで発表したのは、中国が2030年までにAIで世界のトップになると宣言し、米国の安全保障が揺らいでいるという背景がある。

出典: White House

AI政策の骨子

トランプ政権はAI関連技術育成のために予算を計上する。具体的には、AI基礎研究、コンピュータインフラ整備、機械学習、自動運転システムなどが対象となる。また、トランプ政権は米国産業がAIシステムを運用するために障害となっている規制を撤廃する。更に、AI導入で職を失った人に対し職業訓練を実施する。各省庁はAI導入を進め、国民のためのサービスを向上させる。また、米国省庁内のデータを民間に公開し、AI開発を促進することも盛り込まれている。

AI政策の意図

この発表で、米国が引き続きAIで世界をリードするために、トランプ政権はこれを後押しすることを、内外に向かって明らかにした。米国がAIで世界のトップを維持するのは、産業で競争力を持ち、米国労働者の富を増すためとしている。更に、科学、医学、通信の分野で技術開発を進め、新時代を築いていくとも述べている。

発表した理由

ここ最近、中国、フランス、イギリス、EUはAI国家戦略を相次いで発表した。特に注目されるのは中国政府の動きで、中国は国策としてAI技術を育成し、2020年までに米国と肩を並べ、2030年までに米国を抜いて世界トップの技術を持つことを宣言した (下の写真)。既に、中国のAI技術進化は凄まじく、今回の発表は、中国や他国のAI政策に対抗するかたちとなった。

出典: http://www.gov.cn

データ公開

具体的な政策が乏しい中で、特筆すべき点は、連邦省庁が所有しているデータを公開することを明示したことだ。民間企業はこれらのデータを利用してAIアルゴリズムを教育できる。ただし、どんなデータがいつ公開されるかについては明らかにされていない。これに先立ち、オバマ政権は、NASAのリモートセンシング画像を公開し、AI開発を含むイノベーションが進んでいる。

規制撤廃

中国は国策として、AI開発に資金を拠出し、企業の育成を進めている。一方、トランプ政権はAI開発を直接支援する枠組みについては触れていない。今回の発表で、トランプ政権はAI開発で障害となる規制を撤廃することを明言し、政府機関のAI開発に対する規制の在り方を検討する。これにより、自動運転車やロボットやドローンに関連する規制が緩和され、実証実験が進むことが期待される。トランプ政権はAI開発の環境整備に重点を置く姿勢が読み取れる。

AI人材教育について触れていない

一方、今回の発表はAI人材育成については触れていない。現在、AI研究者やAI開発者の数が十分でなく、これがAI研究やAI開発の大きな障害となっている。この問題を解決するためには、大学や民間企業におけるAI教育プログラムの拡充が必要となる。これとは別に、トランプ政権は移民を規制し、就労ビザの発給を厳しく制限していることが、AI人材不足に拍車をかけている。

科学技術政策

AI戦略を含む科学技術政策はOffice of Science and Technology Policy (OSTP) で立案される。

OSTPはホワイトハウスの機能で、科学技術に関するブレインとして、ときの大統領に政策を進言する役割を持つ。しかし、トランプ大統領が就任して以来、長官は不在となっている。また、スタッフの数は半減し、オバマ政権では120人であったが、現在は60人。報告書を制作したMichael KratsiosがOSTPの実質的な代表を務める。地球温暖化対策やAI政策でOSTP長官が不在のまま進んでいる。

AIサミット会議

発表と同時に、政府関係者や民間企業40社余りが加わり、AIサミット会議が開催された (下の写真)。参加者はAI政策に関する議論を交わし、それぞれの意見を述べた。会議では、AI導入により失業者が増えるため、教育の必要性が指摘された。Intelは、政府がAI戦略を構築し、国としてAI技術を育成しないと、中国などの外国勢に負けると主張。IBMは、AI開発でアルゴリズムの透明性を増すことが必要と主張。ホワイトハウスは今後も継続して、他の省庁や民間企業と連携を密にして、AI政策を進めていくとしている。

出典: Office of Science and Technology Policy @ Twitter

難しいかじ取り

トランプ政権が初めてAI政策を発表したことは大きな一歩で、一定の評価を受けている。AI導入により工場労働者の雇用が奪われるため、AI政策を推進することは、トランプ政権支持層から賛同を失う危険性に繋がる。一方、中国が2030年に米国を抜くと宣言しており、国力維持にはAIは欠かせない。トランプ政権は難しいかじ取りを迫れれている。

Googleは人間過ぎるAIの運用を開始、Duplexが電話してレストランを予約

Googleは会話型AI「Google Duplex」を公開した。Duplexは人間のように会話するAIで、レストランの店員と話してテーブルを予約する。Duplexは開発者会議Google I/Oで発表されたが、話し方があまりにも人間そっくりで、本当に存在するのか疑問視されていた。Googleはライブデモを実施し、Duplexが実存することを示し、これらの疑念を払しょくした。更に、来月7月からDuplexのサービスを開始することも明らかにした。

出典: Google

レストラン予約ビデオ

GoogleはDuplexが実際に稼働している様子をビデオで公開した。Duplexがレストランを予約する手順が紹介された。仮想アシスタントであるGoogle Assistantにレストランの予約を指示すると、背後でDuplexが電話してこれを実行する。Google I/Oではエッセンスだけが示され誤解を招いたが、ビデオではDuplexと店員の対話が忠実に描写され、完成度の高さをアピールしている。

予約を指示する

Assistantにレストラン予約を指示すると (「Hey Google, Book a table for 2 at El Cavotero on Tuesday at 7 pm」)、Assistantは予約の時間帯を確認する (「Alright. Just in case, if that’s not available, can I try between 7 pm and 8 pm?」、上の写真)。これに対し「Sure」と答えると、Assistantは内容を確認をして(「I’ll book under your name…」)、予約プロセスを起動する。

Duplexがレストランに電話

この指示に基づき、Duplexがレストランに電話をかけ、自己紹介をして、予約したい旨を告げる (「Hi, I am the Google Assistant to make a reservation for a client.」、下の写真)。これに続き、会話が録音されている旨を伝える (「The automated call will be recorded.」)。相手に人間だと誤解されないため、Duplexは会話の冒頭でAIであることを明らかにする。更に、会話の内容が録音されているとのコメントを追加する。カリフォルニア州では、通話を録音する際は、法令でこれを相手に明示することが義務付けられている。

出典: Google

予約時間の調整

次に、Duplexが予約の日時を告げる (「Can I book a table for Tuesday, the 12th?」)。これに対し、店員が何人かと尋ねると (「How big is the party?」)、Duplexは二人と返答(「It’s for 2 people」)。次に、店員が日時を尋ねると (「When did you say they want to come in?」)、Duplexは火曜日の午後7時と再度告げる (「Tuesday at 7 pm」)。店員が空き時間を確認し、7時は空いていないが8時ならあると述べると(「I don’t have 7, but we can do 8」)、Duplexは8時でも大丈夫と答え(「Year, 8 pm is fine.」)、時間調整が完了。

予約が成立

店員が名前を尋ねると(「Can I get their name?」)、DuplexはAnaと回答 (「The first name is Ana」)。店員がそれでは火曜日に(「Okay, we will see Ana Tuesday」)と内容を確認すると、Duplexはありがとうと述べて(「Okay, awesome. Thanks a lot 」)、予約が完了する。Anaのスマホには予約確認のメッセージが届き (下の写真)、一連のトランザクションが完了する。

出典: Google

Duplexを報道機関に公開

このビデオとは別に、Googleはレストラン店舗 (下の写真) に報道関係者を招待し、Duplexのデモを実施した。招待された記者たちは、レストラン店員に扮し、Duplexからの電話を受け、対話しながら予約を受け付ける作業を体験した。この中には、Duplexが余りにも人間そっくりなため、このシステムはデモのために作られた、とレポートした記者も含まれていた。このデモの内容についてCNNなど主要メディアが報道し、Duplexは実際に稼働していることが明らかになった。

出典: Google Street View

人間的である理由

Duplexを人間と感じる理由は、人間の悪い癖であるDisfluenciesを取り入れているため。Disfluenciesとは、 “えーと”など意味のない繋ぎ言葉を指し、これが会話の中に配置され、人間臭さを醸し出す。これに対して、Duplexは人間を模倣する必要はない、という意見も少なくない。AIはAIらしくぎこちなく喋るべき、というのがその理由。Googleは、Duplexを人間に近づけている理由を、ぎこちなく喋ると聞き手はイライラが募り、電話を切ってしまうケースが増えるため、と説明している。実際に、電話の音声ガイダンスは好感が持てないが、Duplexの溌溂とした女性の声には親近感を感じる。

オペレータが手助け

今回のデモで、GoogleはDuplexの背後でオペレータが運用を支えていることを明らかにした。Duplexが応対できるケースは8割程度で、処理できない時には人間のオペレータに回送される。会話の途中で問題が起こると、Duplexはオペレータに繋ぐと述べて(「I think I got confused. Hold on, let me get my operator.」)、電話を転送する。

Duplexが対応できないケース

Googleは、Duplexが対応できない具体的な事例は示していないが、デモを体験した記者たちがこれをレポートしている。デモの中で、記者たちは意地悪な質問をして、Duplexの機能の限界を試した。ある記者は、予約グループの中に食事制限をしている人が尋ねると、Duplexは回答できなかったとしている。また、車いすを使う人がいるかとの質問にも、Duplexは答えることができなかった。更に、天気に関する話題など、予約以外のトピックスにはDuplexはついていけない。Duplexは人間のように世間話ができるわけではなく、予約一筋に事務作業を遂行するキャラクターとなっている。Duplexのナレッジベースを拡大することが、今後の課題となる。

サービス開始時期

Duplexはレストランの予約の他に、ヘアサロンの予約もできる。また、祝日の営業時間の問い合わせにも対応している。これらの機能が順次、一般に公開される。数週間後に、祝日の営業時間を問い合わせる機能が、夏までにレストランとヘアサロンの予約機能が公開される。一般利用者がスマホやGoogle Homeで、Duplexを使うことができるようになる。まだ、レストランとヘアサロンの予約に限られるが、人間に代わってAIが電話して予約する時代が始まろうとしている。

GoogleのAIカメラ「Clips」はプロ写真家の技を習得、AIが自動でシャッターを切り印象的なビデオを撮影

GoogleはAIカメラ「Google Clips」 の販売を開始した。カメラにAIが搭載され、自動でビデオを撮影する。Google Clipsのアルゴリズムは、絵になるシーンを認識し、自動でシャッターを切る。実際に使ってみると、Google Clipsは独自のテイストを持っていて、子供や大人やペットが楽しんでいるシーンをビデオに収めていく。

出典: Google

開発コンセプト

Deep Learningの進化で、アルゴリズムがオブジェクトの種類を高精度で把握できるようになった。この技術を応用して、人間に代わりAIが写真を撮影する技術が、次の開発テーマとなっている。Clipsはその一つの解で、カメラがシャッターチャンスを自動で認識し、プロ写真家のようにビデオ撮影することを目標に設計された。

家族やペットに反応

Clipsは家族やペットなどを撮影することを想定してデザインされた。Clipsはインテリジェントな機能を持ち、AIが人物やペットを識別する。Clipsに家族関係者を教えておくと、その人物を中心に撮影する。アルゴリズムは笑顔や動き (ダンスやハグなど) をシャッターチャンスととらえ、ビデオ撮影を始める。

操作方法

Clipsは小型形状のカメラでシンプルなデザインとなっている (上の写真)。カメラのレンズ (黒円の部分) を右に回すと撮影が始まる。撮影中は白いライトが点滅し、撮影していることを示す。Clipsが最適なシーンを選び、短いビデオ (6秒間のビデオクリップ) として収録する。レンズの下のボタンを押すと、マニュアルで撮影することもできる。

スマホアプリ

Clipsを被写体の近くに置き、レンズを回して撮影を開始する。被写体までの距離は3フィートから8フィート (0.9メートルから2.4メートル) が最適。130度の広角レンズを搭載しており、被写体に近づけて使う必要がある。Clipsにはファインダーはなく、スマホアプリ「Google Clips」でカメラが捉えた映像を見る (下の写真、左側上段の画面)。また、カメラのポジションもアプリで確認し、水平になっているかどうかをチェックする (同、右下の白枠)。

出典: Google

ビデオの保存

撮影したビデオはClipsのストレージ(16GB)に格納される。これらビデオはClipsからアプリに送信され、スマホの上で閲覧する。ビデオでSaveオプションを選ぶと、写真クラウドGoogle Photosにアップロードされる (上の写真、右側中段)。ビデオは写真またはビデオクリップとして保存できる。プライバシー保護の観点から、撮影したビデオは、Save機能を使わない限り、デバイスに留まる。

実際に使ってみると

Clipsは人間に代わりAIが印象的なシーンを自動で撮影するので、スマホを持って被写体を追跡する必要はない。食事中にClipsをテーブルに置いておくだけで、絵になるシーンが撮影される。また、プールで遊んでいる子供を撮影するときは、Clipsを被写体に向けておくだけで、楽し気なシーンが撮影できる。ファインダーでシャッターチャンスを追う必要はなく、AIがこれを代行するので、写真撮影のスタイルが根本的に変わる。

AIの際立った特性

Clipsは絵になるシーンを捉える際に、際立った判定規準を持っている。Clipsは人が何かアクションを取っていることに敏感に反応し、シャッターを切る。例えば、飛び上がったり、ダンスしているシーンをシャッターチャンスだと理解する。また、お母さんと赤ちゃんが水に手を入れて、水しぶきを立てて遊んでいるシーンを逃さない。楽しそうに笑っているシーンは必ず撮影する (下の写真)。一方、Clipsは構図、色彩、ライティングについては考慮していない。つまり、AIは人やペットの自然なシーンを撮影するよう教育されている。

出典: Google

シャッターチャンスの学習方法

アルゴリズムが最適なシーンを学習するため、Googleは教育データを生成した。ビデオから多くのセグメントを抽出し、そこからシーンのペアをつくり、プロ写真家がそれぞれのペアを比較し、どちらが絵になるかを判定した。これが教育データとなり、アルゴリズム教育で使われた (下の写真)。ニューラルネットワーク (MobileNet Image Content Model)がシーンの中のオブジェクトを判定し、機械学習の手法(Segmented Regression) でどちらのシーンが絵になるかを判定。このプロセスを繰り返し、アルゴリズムがプロ写真家のテクニックを学習した。

出典: Google

Google Clipsはプロを超えたか?

実際に使ってみると、Clipsは子供や大人が楽しそうにしている顔の表情や、体全体のアクションを確実に捉え、生活の一部が切り取られたように、印象的なビデオを作り出す (下の写真)。筆者が撮影したビデオと、Clipsが撮影したものを比べると、Clipsの画面は生き生きしているシーンが多い。素人写真よりもテクニックは上で、プロの技を伝授された面影を感じる。人間の仕事は、Clipsが撮影したビデオの中から、気に入ったシーンをより分ける作業となる。

出典: VentureClef

インスタ映えする写真はAIが撮る

ただ、ClipsのAIは子供や大人やペットに反応するが、その他のオブジェクトを自動撮影することはできない。観光スポットや綺麗な洋服を撮影する仕様ではなく、AIはこれらの被写体を撮影対象とは理解していない。今すぐに、写真撮影がAIに奪われることはないが、人間の技量がまた一つAIに置き換わる方向に進んでいる。インスタ映えする写真は人間ではなくAIが撮影する時代はもう目の前だ。

GmailはAIがメールの書き方を習得、文章を書き始めると次のフレーズを教えてくれる

GoogleはGmailを大幅にアップグレードし、AIがメール文書を作成する機能をリリースした。これは「Smart Compose」と呼ばれ、メールを書き始めると、AIがそれに続くフレーズを生成する。書き始めるだけで文章が完結するので、メールを書く時間が大幅に短縮される。

出典: VentureClef

使い方はシンプル

Smart Composeは一般公開に先立ち、試験バージョンとしてリリースされた。使い方はシンプルで、Gmailのメール作成画面で、文字をタイプすると、AIがそれに続くフレーズを提示する (上の写真)。「How」とタイプすると、AIは「How are you doing?」という文章を生成する。AIが提示するフレーズ  (「are you doing?」の部分) は灰色で示され、タブを押すとこの文章が確定する。また、Smart Composeは受信したメールに返信するときも、AIがフレーズを生成する。

実際にメールを書いて見ると

実際に使ってみると想像していた以上に便利だ。冒頭の言葉をタイプすると、AIがそれを完結する。下の写真がその事例で、AIが生成した部分を赤字で示している。文章の殆どをAIが生成していることが分かる。あて名はAIがメールアドレスを見て生成する。また、AIは筆者の住所も把握しており、自動で挿入する。AIが個人情報を把握しており、少し気味悪いところもあるが、便利さとのトレードオフになる。

出典: VentureClef


挨拶文のバリエーション

メールの冒頭で挨拶分を書くときに、様々な表現があるが、AIは多彩な書式を学習している (下の写真、AIが生成した部分を赤字で示している)。「Hope」と入力すると、AIはそれに続き「all is well with you」と出力する (下の写真、一行目)。このフレーズではなく、別の表現を意図しているときは、タイプを続け、「Hope e」まで綴ると、AIは意図を察して、「everything is going well with you」と出力する (下の写真、二行目)。今度は、「Hope w」と綴ると、AIはこれに続き、「work is going well」と出力する (下の写真、三行目)。つまり、書きたい文章をタイプし始めると、AIがその文章を完結する。挨拶分のバリエーションは幅広いが、AIはこの多様性に対応できている。

出典: VentureClef


少し複雑なメール

AIは冒頭のあいさつや、最後の決まり文句だけでなく、中間部分のフレーズも生成する。文章を書き始めるとAIが意味を察して、それに続く単語を生成する。ただ、少し複雑なメールになると、AIが補完する部分が少なくなる (下の写真、AIが生成した部分を赤字で示している)。AIが文章の最後の部分だけを生成するケースが増える。Smart Composeの機能はまだ限定的で、補完できる範囲を広げることが、次の目標となる。

出典: VentureClef

言語生成モデル

興味深いのはSmart Composeを支えているAIで、アルゴリズムが学習を重ね、メールを生成する能力を習得する。このAIは言語生成モデル (Language Generation Model) と呼ばれ、入力された文字列から、次の文字を予測する。このため、一般的に、Sequence to Sequence (Seq2Seq) モデルに区分される。Gmailは言語モデルの中で、Recurrent Neural Network-Language Model (RNN-LM) とNeural Bag of Words (BoW) を使っている。

Recurrent Neural Network-Language Model

RNN-LMはRNNベース (時間に依存するニューラルネットワーク) の言語モデルで、言語生成の定番技法である。Googleは翻訳サービス「Google Neural Machine Translation」でRNN-LMを使っている。RNN-LMはEncoder (言葉を符合に凝縮) とDecoder (符号から言葉を生成) から成る。翻訳モデルでは、言葉をEncoderに入力すると、Decoderが別の言語に翻訳する (下の写真、中国語を英語に翻訳する事例)。

出典: Google

RNN-LMを使いたいが

GmailにRNN-LMを応用すると、アルゴリズムがメールの文章を生成する。この場合、Encoderに入力するのは、メール題名と受信メール(返信文を書くとき)で、Decoderは利用者がメールを書くにつれ、それに続くフレーズを生成する。しかし、RNN-LMは予測精度は高いものの、大規模な計算量が発生し、答えが出るまでに時間がかかる。メール生成ではタイプするごとに、次のフレーズを生成する必要があり (遅延時間は0.1秒以内)、RNN-LMを使うことができない。

RNN-LMとBoWの組み合わせ

このため、GmailはRNN-LMとBoWを組み合わせて使っている。BoWとは言語モデルの一つで、言葉の並びから、次に現れる単語を予測する。単語は位置情報を含んだベクトルとして表現される (Word Embeddingと呼ばれる)。Gmailはメール題名と受信メールをEncodeするとき、このWord Embeddingを使う。RNN-LMのDecodingの各ステップにWord Embeddingを入力し、Decoderがテキストを生成する。「How」とタイプすると、RNN-LMは「are you doing?」と文章を生成する (下の写真、実例は先頭の写真)。つまり、RNN-LMのEncoding部分に軽量なBoWを使い、遅延時間を短くすることに成功した。

出典: Google

計算環境

Gmailの言語モデルが決定すると、ネットワークのハイパーパラメータ最適化や教育 (文字通りTrainingと呼ばれる) のために、TPUv2 Podが使われた。TPUv2は第二世代のTPUで、Podとはこれを64枚搭載した構成。教育された言語モデルを実行 (Inferenceと呼ばれる) する際に、CPUが使われたが、処理時間がかかり遅延時間の制約を満たすことができなかった。そのため、言語モデルの実行もTPUが使われている。

ロードマップ

Microsoft Outlookでメールを作成したり、Wordで文章を書くときも、ウインドウにフレーズ候補が示される (日本語入力変換のケース)。これを上手く使うと、文章を効率的に書くことができる。しかし、これは文字変換機能に留まり、利用範囲は限定される。何よりも、変換の精度が悪くイライラすることも少なくない。これに対しSmart Composeは、タイプされた文字や単語に反応し、それに続くフレーズを生成し、インテリジェントであると感じる。Smart Composeは登場したばかりであるが、次は、利用者のライティングスタイルで文章を生成するアルゴリズムが開発されている。

Googleはイメージ検索機能「Google Lens」をAIで大幅強化、スマホカメラがモノの名前を教えてくれる

Googleはイメージ検索機能「Google Lens」の最新版をリリースした。Google Lensはスマホカメラに写ったオブジェクトの名前を表示する。カメラ越しに花を見ると、Google Lensはその名前を教えてくれる (下の写真、左側)。お洒落なハンドバッグに視線を移すと、Google Lensはそれに似ている商品を示す (下の写真、右側)。カメラでイメージ検索をする技術は早くから登場しており、アイディアとしては目新しいものではない。しかし、Google Lensは高度なAIを実装し、イメージ検索機能と精度が大幅に強化され、使ってみると予想外に便利で、いまでは生活の必須アイテムとなった。

出典: VentureClef

スマホ向け拡張現実

Google Lensは2017年11月に登場し、2018年5月に機能が大幅に強化された。Google Lensの実態は拡張現実 (Augmented Reality) で、カメラが捉えたオブジェクトに情報を付加する構造となる。Google Lensはスマホ「Google Pixel 2」などに実装され、AIアシスタント「Google Assistant」と連携して稼働する。Google Lensを起動するには、Google Assistant画面でLensアイコンにタッチする。また、Google Lensはカメラアプリに組み込まれ、撮影画面からホームボタンを長押しして駆動することもできる。

名刺を住所録に登録

Google Lensはテキストを認識し、それを文字に変換し、それらの意味を理解する。名刺を読み込むと、そのまま住所録に登録できる (下の写真、左側)。名刺に記載されている電話番号を認識し、そのまま電話を発信できる。更に、住所を認識し、Google Mapsにリンクして、その場所までナビゲーションする。街中のポスターで気になるコンサートの案内があると、それをGoogle Lensで見ると、プログラムや連絡先を抽出する (下の写真、右側)。Google Lensは所謂OCR(光学文字認識)として機能するが、コンテンツの意味まで理解するので、その利用価値は高い。

出典: VentureClef


美術館の案内

Google Lensは絵画や彫刻など芸術作品を理解しその内容を解説する。美術館で音声ガイドを借りる代わりに、Google Lensが案内役を務める。Google Lens越しに絵画を見ると、作品の題名と概要を表示し、示されたリンクを辿ると作品の詳細を読むことができる。(下の写真、左側、この絵はセザンヌ作の「Chateau Noir」と表示)。撮影した写真を後日、Google Lensで見ると、同様な説明が表示される。(下の写真、右側、この彫像はロダン作の「Les Bourgeois de Calais」(カレーの市民)で、その概要が示される。) Google Lensの絵画に対する認識精度は極めて高く、美術鑑賞のスタイルが変わる。

出典: VentureClef


観光ガイド

Google Lensはランドマークを認識し観光ガイドとして利用できる。周囲のビルやモニュメントにカメラを向けると、Google Lensがそれらの名前を表示する。Google Lens越しにGoogle本社ビルを見ると「Googleplex (Googleキャンパス)」と表示され、リンク情報が提示される (下の写真、左側)。また、撮影した写真を後日、Google Lensで見ると、観光した場所の名前と概要を教えてくれる (下の写真、右側、スタンフォード大学内の「Memorial Church」とその概要を表示)。ただ、数多く存在するランドマークを認識するには高度な技術を要する。更に、見る角度や影の方向でイメージの判定が難しい。このため、Google Lensが認識できるランドマークの数は限られ、認識精度も完全ではなく、更なる技術改良が必要となる。

出典: VentureClef


植物図鑑

Google Lensを植物に向けるとその名前を教えてくれ、植物図鑑として使うことができる。カメラで白い花を見ると、Google Lensはこれは「Jasmine」(ジャスミン)と教えてくれる (下の写真、左側)。写真撮影した草花の種類をGoogle Lensで調べることができる。よく見かけるオレンジ色の花の写真をGoogle Lensで調べると、これは「California Poppy」(ハナビシソウ)であることが分かった。植物の判定は難しく高度なニューラルネットワークが必要であるが、Google Lensを花に向けると敏感に反応し正解率は悪くない。一方、樹木や木の葉にについてはアルゴリズムの教育ができていないのか、認識力が大きく落ちる。制限事項はあるものの、Google Lensで身の回りの植物の種類を知ることができ、コンピュータビジョンの進化を肌身で感じる。

出典: VentureClef


Smart Text Selection

Google Lensの機能が強化され、「Smart Text Selection」、「Style Match」、「Real-Time Results」が追加された。Smart Text Selectionは、Google Lensが認識したテキストの中から、特定部分を選択する機能。例えば、レストランメニューのなかから、気になる料理を選択すると、Google Lensはその内容を説明する。イタリア語で書かれていて読めない時は、Translateボタンにタッチすると翻訳してくれる (下の写真)。この料理はマグロのスライスにオレンジサラダが付いているのだと分かる。

出典: VentureClef


Style Match

Style Matchはファッションや家具などをアドバイスする機能。Google Lensでお洒落な洋服を見ると、その洋服と同じデザインの別の製品を表示する (下の写真、左側)。気に入ればそのまま購入できる。その他にGoogle Lensでシューズやバッグを見ると、同じ趣向の商品を表示する (下の写真、右側)。家の中では、Google Lensで家具を見ると、類似の商品を示す。Amazonなどショッピングサイトで同様な機能があるが、Google Lensはカメラで捉えたライブイメージが対象で、リアルタイムで画像解析を実行し、デザインが似ている商品を検索するので、高度な技術が必要となる。

出典: Vogue / VentureClef


Real-Time Results

このように、Google Lensの最大の特長は、リアルタイムでオブジェクトを把握できるようになったこと。カメラを通して周囲を見渡すと、Google Lensは写っているオブジェクトをリアルタイムで把握し、それに関連する情報を表示する (下の写真、画面上の白いドットはAIが解析している領域を示す)。Google Lensは連続してイメージ解析を実行する構造で、究極のコンピュータビジョンといえる。ただ、プロセッサへの負荷は高く、持っているスマホが熱くなり、20分程度でバッテリーがなくなる。

出典: VentureClef

システム概要

Google Lensは、エッジでAIによる画像解析を実行し、そのメタ情報をクラウドに送信し、バックエンドで検索プロセスを実行する構造となる。この際、スマホの限られた計算資源でニューラルネットワークを稼働させ画像解析を実行する。光の条件や撮影するアングルでイメージは大きく変わり、スマホでのオブジェクト認識は難しい。このプロセスでGoogleのAIプロセッサ「Pixel Visual Core」が使われる。一方、クラウド側のAI処理では「Cloud TPU」が使われる。Google Lensは、場所 (ランドマークなど)やモノ (植物、ファッション、家具、絵画など) のなかからオブジェクトをリアルタイムで特定する。

Googleの狙いは

Google Lensは拡張現実によるイメージ検索で、Googleのコア事業である検索サービスを強化した形となる。Googleは2010年に、イメージ検索スマホアプリ「Google Goggle」を投入し、このコンセプトを追求したが、幅広く普及することはなかった。Google Lensはこの後継モデルとなるが、高度なAIを実装し、検索精度が格段に向上した。Google Assistantは言葉による検索クエリーだけでなく、ビデオ画像による検索を実行することができ、検索の幅が大きく広がった。更に、Google Lensの機能強化とともに、このシステムはLGなど他社メーカーに公開され、イメージ検索クエリの件数が大きく増えることになる。