月別アーカイブ: 2018年5月

Amazonが警察に顔認識技術を提供、人権団体は運用中止を求めるが…

警察は監視カメラの映像をAmazon顔認識技術で解析し、容疑者の身元を特定するシステムの運用を始めた。米国の人権団体はこの事実を掴み、警察の顔認識システムは人種差別につながるとして、運用の停止を求めている。一方、テロ事件など凶悪犯罪が多発する中、米国市民はAI監視カメラによる治安維持活動に一定の理解を示している。

出典: Amazon

顔認識クラウド

Amazonはイメージ解析技術を「Amazon Rekognition」としてクラウドで提供している。顔認識技術はこのモジュールに含まれ、写真やビデオに写っているオブジェクトの中から、人の顔を把握し、その人物の名前などを特定する。解析能力は高く、一枚のイメージの中で同時に100人の顔を解析できる (上の写真)。また、ライブビデオの映像を連続して解析し、特定の人物を追跡する機能もある。

警察の捜査で利用

Amazon Rekognitionの顔認識機能が米国の警察で使われている。オレゴン州ワシントン群警察 (Washington County Sheriff‘s Office) は、顔認識システムでAmazon Rekognitionを導入した (下の写真、イメージ)。警察は刑務所に収監された人物30万人の顔写真を所有しており、これをAmazon Rekognitionにアップロードし、犯罪者の顔データベースを構築。監視カメラが捉えた容疑者の顔を、このデータベースで検索することで、その人物の身元を特定する。このシステムは、市民が提供した容疑者の写真から、その人物を特定するためにも使われている。

出典: Washington County Sheriff‘s Office

システム運用の範囲

顔認識機能により犯罪捜査が効率化され、監視カメラで捉えた映像が容疑者や共犯者の逮捕につながる。ただし、警察は住民のプライバシーに配慮して、顔認識システムを限定的に運用している。監視カメラを使って一般市民を撮影し、その行動をリアルタイムでモニターすることはない。あくまで犯罪現場のビデオ画像から犯人を特定するためにだけ使われる。オレゴン州は法律により、一般市民をカメラで監視することを禁止しているため、警察は法令に従ってシステムを運用している。

フロリダ警察

また、フロリダ州オーランド警察 (Orlando Police Department) もAmazon Rekognitionを使った監視システムを開発している。市街地に設置されている監視カメラだけでなく、警察官が身に付けているボディーカメラやドローンで捉えた映像をAmazon Rekognitionで解析する。オーランド警察は人権問題に配慮して、このシステムは試験中で、警察による運用は始まっていないと説明している。更に、公共の場所で撮影されるビデオ画像は使ってなく、一般市民を監視するものではないことを強調している。

人権団体からの抗議

米国で警察がAmazon Rekognitionを導入し、監視カメラを犯罪捜査に活用する動きが広がっている。これに対して、ACLU (American Civil Liberties Union) など人権監視団体は強い懸念を表明し、警察に顔認識技術の使用を中止するよう要請している。その理由として、警察は顔認識技術を容疑者だけでなく、黒人、移民、特定団体の監視に使う恐れがあるとしている。デモに参加する一般市民を撮影し、顔の解析から名前を特定し、行動を監視する目的で使われることに懸念を示している。

FBIの顔認識システム

米国は早くからFBIが大規模な顔認識システムを開発している。このシステムは「Next Generation Identification-Interstate Photo System」と呼ばれ、警察が顔写真から本人の身元を特定するために使われる。2008年から開発が始まり、4億人超の顔写真が収集され、世界最大規模の顔データベースが構築された。しかし、認証精度が十分でなく、また、連邦議会からプライバシー問題を指摘され、実戦での運用は始まっていない。

流れが変わった

いまこの流れが大きく変わりつつある。Deep Learningの導入でコンピュータビジョンが進化し、顔認識精度が格段に良くなった。FBIが開発した技法より、Amazon Rekognitionのほうが認識精度が高い。更に、米国市民のメンタリティも大きく変わった。住民はプライバシー保護を求めるが、同時に、テロ事件など凶悪犯罪を防ぐ取り組みに理解を示している。警察の顔認識システムの運用に対し一方的に反対するのではなく、治安維持の必要性から一定の理解を示している。(下の写真、ボストンマラソンで監視カメラが捉えた犯人)

出典: CNN

中国が顔認識技術で先行

世界を見渡すと、監視カメラと顔認識システムの導入では、中国が大きく先行している。中国は国家戦略として、AI応用分野を顔認識に定め、新興企業を育成している。これにロシアやインドが続いている。更に、欧州各国はプライバシー保護に敏感であるが、イギリス警察は監視カメラと顔認識システムの導入を始めた。英国議会は慎重な態度を取るが、テロ事件が相次ぎ国民世論は顔認識システム容認に傾いている。

米国でも普及の兆し

米国では家庭向けAI監視カメラが普及し、住民はその恩恵を実感し始めている。AmazonやGoogle・Nestは家庭向けにAI監視カメラの販売を拡大している。撮影されたビデオ画像はクラウドで処理され、AIが問題のイベントを把握し、それをアラートの形で利用者に通知する。これにより、家庭のセキュリティが強化され、住民の安心感が格段に向上した。この延長線上に警察の顔認識システムが位置し、AI監視カメラの果たす役割が期待されている。

Googleは米国国防省にAI技術を供与、TensorFlowがイスラム国監視で使われAIの軍事利用が問われている

米国国防省はドローンを使った偵察ミッションを展開しているが (下の写真)、AIを導入しプロセスを自動化した。イスラム国やシリアでの偵察ミッションで、ドローンが撮影するビデオに写っている車両や人物などをAIが判別する。ここにGoogleのAI技術が使われていることが判明し、Google社員はプロジェクトからの撤退を求めている。企業の事業方針と社員の倫理観が衝突し、Googleは利益追求と社会責任のバランスが問われている。

出典: U.S. Navy

Google社員の抗議

このプロジェクトはProject Mavenと呼ばれ、ドローンを使ったAI偵察ミッションで、コンピュータビジョンがオブジェクトを判定する。GoogleがこのプロジェクトにAI技術を提供していることが明らかになり、社員は公開書簡をCEOであるSundar Pichai送り、Googleはこの契約を解約すべきと要求している (下の写真)。更に、Googleは軍事産業にどうかかわるのか、会社の指針を明らかにすることも求めている。この書簡に4000人のGoogle社員が署名し、12人のエンジニアはこれに抗議して会社を辞職した。

出典: Google

Googleの対応

これに対して、Googleのクラウド事業部責任者Diane Greeneは、Project Mavenへの技術供与について説明した。それによると、Googleが提供するAI技術は、ドローンを飛行させたり、兵器を起動するためには使われない。戦力を行使する戦闘行為に適用されるのではなく、あくまで通常のミッションで使われると説明。具体的には、GoogleはオープンソースのTensorFlow APIを提供し、ドローンで撮影したイメージを解析し、オブジェクトを把握するために使われていることを明らかにした。

自律兵器へ繋がる

Googleは提供した技術が自律兵器 (Autonomous Weapons) で使われることはなく、攻撃を伴わないミッションで使われることを強調した。自律兵器とは、AIが攻撃目標を把握し、AIがトリガーを起動する兵器を指す。しかし、今は通常のミッションで使われていても、この技術を応用すると自律兵器を構成できるため、Google社員はこの技術の供与に反対している。

オープンソース

GoogleはTensorFlowをオープンソースとして公開しており、だれでも自由に使うことができる。かりにGoogleが契約を解約しても、オープンソースであるため、Project MavenはTensorFlowを使い続けることができる。市場には数多くのAIオープンソースが公開されており、これらが軍事目的で使われている可能性は高い。AIオープンソースを如何に管理すべきか、本質的な問題を含んでいる。Googleとしては、AIを軍事目的で使うことに関し、会社として指針を設定すると述べるに留まっている。

Project Mavenの位置づけ

Project Mavenは「Algorithmic Warfare Cross-Functional Team」と呼ばれる部門がプロジェクトを管轄しシステムを開発した。この部門は国防省内の組織を跨り、AIとMachine Learningを導入することを使命とし、Project Mavenがその最初のプロジェクトとなった。

偵察活動を自動化

国防省はイスラム国が支配している地域とシリアでドローンを飛行させ、偵察活動を展開している。ドローンに搭載されたカメラで地上を撮影し、アナリストがビデオや写真をみて、そこに写っているオブジェクトの種類を判定してきた。イメージは大量で、このマニュアル作業をAIで自動化することを目的にプロジェクトが始まった。アルゴリズムはオブジェクトを38のクラス(車両、人物、行動など) に特定し、問題と思われる情報をアナリストが解析する。このミッションでは戦略ドローン「ScanEagle」(先頭の写真) と戦術ドローン「MQ-1C Gray Eagle」及び「MQ-9 Reaper」が使われイスラム国の行動を監視している (下の写真、空軍諜報部門)。

出典: US Air Force

AmazonやMicrosoftも

国防省にAI技術を供与しているのはGoogleだけでなく、AmazonやMicrosoftもクラウドサービスでイメージ解析技術などを提供している。これらの企業ではAIが軍事目的で使われることに対して、反対運動は起こっていない。更に、データサイエンスでトップを走るPalantirは軍需企業として国防省に情報サービスを提供し続けている。Googleの場合は社員が理想的な世界を追いすぎるのではとの意見も聞かれる。

AIの軍事転用問題が次の焦点

一方、世界で最先端のAI技術を持つGoogleがその技術を軍事システムに提供したことに対し、市場からも反対の声が上がっている。大学教授を中心とするAI研究者1000人は、Alphabet CEOであるLarry Pageらに対して、Project Mavenから離脱し、今後はAIを軍事目的で使わないことを求めている。同時に、AI管理のルールが存在しない問題も指摘し、AI兵器開発規制を世界規模で進める必要性を説いている。Facebookが個人データ流出問題で対策を求められているように、AIの軍事転用問題が次の焦点になる勢いである。

Googleは人間に近づき過ぎたAIを公開し波紋が広がる、仮想アシスタントが電話してヘアサロンを予約

Googleは仮想アシスタントが電話して実社会のタスクを実行する技術「Google Duplex」を公開した。Duplexは人間のように会話できるAIで、例えば、ヘアサロンの店員さんと話してヘアカットの予約をする。話し方があまりにも人間的で、マシンとは到底区別がつかない。Duplexは究極の仮想アシスタントと評価される一方で、人間的過ぎるAIは社会で許容されるのか、波紋が広がっている。

出典: Google

Google開発者会議

Googleは2018年5月8日、開発者会議Google I/OでAIやAndroidの最新技術を発表した。「Google AI」というブランドのもとAI企業に舵を切り、仮想アシスタント「Google Assistant」やAIスピーカー「Google Home」の最新技術を公開した (上の写真)。この中で、人間に代わり仮想アシスタントが電話で会話して実社会のタスクを実行する技術Google Duplexを公開した。

Duplexがヘアカットを予約

Google CEOのSundar PichaiがDuplexのデモを行った。Duplexがヘアサロンに電話して、ヘアカットを予約するというストーリーで、会話は次の通り進んだ。

Duplex:(ヘアサロンに電話を発信)

ヘアサロン店員:Hello, may I help you?

Duplex:I’m calling to book a women’s haircut for a client.  Umm, I am looking for something on May 3rd. (若い女性のテンポよい会話で到底AIとは思えない)

ヘアサロン店員: Just give me one second.  (店員は予約表を見ている様子)

Duplex: Mm-hmm。(Yesと言わないで”ふふーん”という繋ぎ言葉(Disfluencies)が入り、ますます人間の雰囲気を醸し出す)

出典: Google

Duplexが予約時間をネゴ

しかし、リクエストした時間が空いてなく、両者の間で協議が始まる。

ヘアサロン店員: Depending on what service she would like.  What service is she looking for?

Duplex: Just a women’s haircut for now.

ヘアサロン店員: Okay, we have a 10 o’clock.

Duplex: 10am is fine.

どんなメニューを希望しているかの問いに対して、Duplexは女性のヘアカットと回答。カットだけなら10時が空いているとのことで予約が完了した。Duplexはヘアサロン店員と予約時間を調整するという複雑なタスクを完遂した。

Duplexを人間と感じる理由

Duplexを人間と感じる理由は、人間の悪い癖であるDisfluencies (“えーと”など意味のない繋ぎ言葉) を取り入れていることと、会話の間合いが絶妙であること。更に、Duplexは想定外の事態に対応して複雑なタスクを実行でき、人間と全く変わらない。Duplexデモの部分は基調講演ビデオ (https://youtu.be/ogfYd705cRs?t=2174)で見ることができる。

Duplexのシステム構成

DuplexはGoogle Assistantのバックエンド機能として実装される。Google Assistantにヘアサロンの予約を指示すると、その背後でDuplexがこれを実行する (下の写真)。実際に、Duplexが店舗に電話を発信し、相手と対話しながらヘアカットの予約を入れる。予約が済むとその内容はGoogle Assistantから利用者に示される (最後の写真)。予約時間が近づくと、Google Assistantはスマホにリマインダーを表示する。

出典: Google

コンセプト

Duplexは自然な会話を通してタスクを実行するようデザインされている。Duplexの会話は人間と同じレベルで、自然で滑らかなトーンで進み、AIであることを感じさせない。従って、利用者は人間と会話するように、自然な言葉づかいで会話する。AIスピーカーに語り掛けるときは、分かりやすくゆっくりと喋るが、早口で言い直しながら話してもDuplexはちゃんと理解する。つまり、Duplexは人間と同じ位置づけで、普段通りの言葉で会話ができる。

出典: Google

市場の反応は割れる

Duplexの会話は人間そのもので、マシンとは全く判別できない。デモを実施した会場からは驚きのどよめきが上がった。一方、市場の反応は分かれ、技術進化を評価するものの、Duplexに対して懸念の声も上がっている。Duplexは社会のモラルから逸脱しているとの意見も少なくない。電話を受けたヘアサロン店員は、人間と思い丁寧に対応したが、実は相手はAIであり、欺かれた感覚を覚える。

電話詐欺や選挙運動

更に、Duplexが悪用されると犯罪の手助けをするのではと懸念されている。米国で電話詐欺により高齢者が被害にあう事件が後を絶たない。電話詐欺でDuplexが悪用されると、大量の被害者が出ることが懸念される。日本語対応のDuplexが登場すると、オレオレ詐欺で悪用される可能性も生まれる。更に、次期大統領選挙でDuplexが悪用されると、再び世論が操作される心配が募る。

Googleの対応策

Googleはこれらの懸念に対して明確な対策は公表していないが、「Transparency」な方針で開発を進めるとしている。Duplexが電話を発信するときは、最初に素性を明らかにし、「自分はDuplexで○○○さんのために電話している」などのコメントが付加されるものと思われる。また、Duplexとの会話を録音する時は、事前に相手の了承を取ることも必要となる。

究極の仮想アシスタント

市場では仮想アシスタントをここまで人間に近づける必要があるのか、議論が始まった。AIが人間ではないことを明らかにするために、機械的な会話に留まるべきだという意見もある。一方、Duplexのデモを見た後で、Google Assistantのいつもの声を聞くと、なぜかモノトーンでフラットに感じる。Duplexのほうに親近感を覚える。AIだと分かっていても、人間臭く感情をこめて語ってくれると、会話がしっくりする。これが究極の仮想アシスタントで、話しぶりに惹かれてしまうが、危険と隣り合わせの状態でもあることも認識しておく必要がある。

FacebookはAIでフェイクニュースを取り締まる、(トランプ大統領誕生の悲劇を繰り返さないために)

米国大統領選挙でFacebookを介してフェイクニュースが拡散し世論が操作された。発信元はロシアで、この結果トランプ氏が当選したとも言われている。Facebookは対策が不備であったことを認め、AIを駆使したフェイクニュース対策を発表した。米国だけでなく欧州やアジアでも、フェイクニュースによる世論操作が顕著になっている。

出典: Facebook

Facebook開発者会議

Facebook CEOのMark Zuckerbergは2018年5月1日、開発者会議F8で選挙対策、フェイクニュース対策、データプライバシー対策など、プラットフォームの安全性を強化するための基本指針を発表した (上の写真)。2016年の米国大統領選挙では対応が不十分で、ロシアによるフェイクニュースが拡散し、これが選挙結果に大きく影響したことを認めた。この教訓を踏まえ、AIやMachine Learning (機械学習) やComputer Vision (画像解析) を活用し、不適切な記事を検知し、拡散する前に取り除く対策を発表した。

既に対策が進んでいる

既に対策が実施されており、フランス大統領選挙、ドイツ連邦議会選挙、米アラバマ州上院補選では、AIツールが使われ数十万の不正アカウント (Fake Account) が削除された。また、米大統領選挙の追跡調査で、不正アカウントを辿るとロシアが関与していることが分かり、これらを閉鎖したと公表した。今年は米国で中間選挙が、この他に、メキシコ、ブラジル、インド、パキスタンなどで重要な選挙が予定されており、Facebookが悪用されないために万全の対策を講じることを宣言した。

ヌードと暴力シーン

FacebookはZuckerbergの講演に続き、不適切な投稿を削除するための具体的な対策を発表した。不適切コンテンツは幅が広く、それを検知する技法も異なる。不適切コンテンツの代表はヌード写真や暴力シーンであるが、これらはComputer Visionを使って検知する。AIの進化でComputer Visionの性能が向上し、これらを高精度で判定する。システムがほぼ全自動で削除するが、判定が難しいものについては専任スタッフが対応する。

ヘイトスピーチ

反対に、AIにとって一番難易度が高いのがヘイトスピーチの検知である。ヘイトスピーチとは、人種や宗教や性的指向などに対して誹謗中傷する行為を指す。攻撃は投稿されるメッセージで行われ、AIはテキストの内容を理解する必要がある。記事は相手を中傷しているのか、それとも、別のことを意図しているのか、コンテクストの理解が必須となる。

検知が難しい理由

例えば、「I’m going to beat you!」というメッセージを受け取ると、これは自分を中傷してるかどうかの判断は文脈による。「あなたを叩く」という意味だと攻撃で、「あなたに勝つよ」という意味だと、お互いに切磋琢磨しようというポジティブな意味にもなる (下の写真、「Look at that pig!」も解釈が難しい)。

出典: Facebook

AI技法を開発中

人間でも判断に迷うことがあるが、AIにとっては最難関の分野で、今の技術では正しい判定はできない。この理由の一つが教育データの不足で、アルゴリズムを教育するためヘイトスピーチの事例を集めることが喫緊の課題となっている。このため、Facebookは別のAIでヘイトスピーチを自動生成する技術を開発しており、二つのAIでヘイトスピーチを検知する技法を目指している。

フェイクニュース

大統領選挙で問題となったフェイクニュースについて、Facebookは重点課題として対策を進めている (下の写真)。AIがこれを直接検知する技術は確立されていないため、フェイクニュースを発信している不正アカウントを突き止め、これらを閉鎖することで情報拡散を防止する。

出典: Facebook

不正アカウントはフェイクニュースだけでなく、スパムや悪質な広告を発信する目的でも使われている。このため、詐欺被害が相次ぎ、Facebookは対策を進めている。不正アカウントは特異な挙動を示し、AIがこのパターンを検知する。例えば、スパムを発信する不正アカウントは、記事を高頻度で投稿するなど特異な挙動を示し、このシグナルをMachine Learningの手法で検知する。

テロリズム

ソーシャルメディアが過激派組織の広告塔として使われ、深刻な社会問題を引き起こしている。FacebookはAIを導入し、イスラム国やアルカイダなどのプロパガンダを特定し、これらを削除している。2018年第一四半期にはイスラム国とアルカイダに関連するコンテンツ190万件を削除し大きな効果をあげている。

過激派組織が投稿するコンテンツはAIが検知する。写真については、AIが既に削除した写真やビデオと比較し、これらを特定する。テキストについては、AIがテロリズムを奨励するテキストを理解する。アルゴリズムが、既に削除されたテキストを学習し、文字ベースのシグナルを把握する。AIがテロリズムに関連するコンテンツを検知するとともに、専任スタッフや専門家がマニュアルでこれらの作業を並行して行う。

AIの限界

Facebookはこれらの対策でAI、Machine Learning、Computer Visionを使っているが、上述の通り、全ての問題を解決できる訳ではない。このため、Facebook利用者のフィードバックが重要な情報源となる。Facebookは不適切なコンテンツがある場合はレポート (下の写真) してほしいと利用者に呼び掛けている。同時に、Facebookは専任スタッフを2万人に増員し、手作業による不適切コンテンツの摘発を進める。

出典: Facebook

プラットフォームの責任

先の大統領選挙では、Zuckerbergはオバマ政権からFacebookを使った情報操作が行われているとの警告を受けたが、その対策は講じなかった。この理由は、Facebookはニュース配信社ではなく“掲示板”であり、恣意的に特定記事を削除することは妥当でないとの解釈による。しかし、Cambridge Analyticaの個人データ流出問題を受け、Facebookが社会に与えた影響は甚大であることが明らかになり、Zuckerbergは会社の方針を大きく転換した。掲示板であるが不適切な記事は掲載させないことがプラットフォームの責務であるとの指針のもと、AIツールを駆使して再び世論が操作されることを阻止している。