カテゴリー別アーカイブ: セキュリティ

バイデン政権は極右団体による国内テロとの戦いを表明、米国市民の多くがQanonなどの陰謀説を信じている

トランプ前大統領の支持者がアメリカ連邦議会に乱入した事件は米国社会の分断を象徴する事象となった(下の写真)。事件の背景には、米国市民の1/3がQanonなどの陰謀説を信じているという事実がある。この襲撃事件に触発され、一版市民が過激化し、極右団体に加わっている。このため、アメリカ合衆国国土安全保障省は、極右団体による国内テロが発生する危険性があるとして、警戒情報を発令した。過去10年はイスラム過激派組織によるテロとの戦いであったが、これからの10年は極右団体による国内テロとの戦いになる。

出典: CNN

トランプ前大統領と極右思想

トランプ前大統領と極右思想は密接な関係にある。極右思想の代表がQanonで、政治的な陰謀論(Conspiracy Theory)として米国社会に幅広く浸透している。一部の極右団体がこれを信奉するだけでなく、社会の中で大きな存在感を示している。トランプ前大統領がQanonを擁護し、Qanonは前大統領を政敵から守ってきた。また、連邦議会議員の中にもQanon支持者が存在する。下院議員Marjorie Taylor Greeneはその代表で、Qanon有権者を取り込み、当選を果たした。

Qanonとは

Qanonは「Q」と「anon」から成る造語で、「Q」は連邦政府のトップレベルのセキュリティ保持者で、「anon」はAnonymous(匿名の人物)を意味する。連邦政府高官が匿名で、トランプ政権転覆を企てる団体「Deep State」を排除することを目的とする。Deep Stateはエリート集団で、暗黒団体「Cabal」の指示のもと活動する。Cabalのメンバーにはオペラ・ウインフリーやジョージ・ソロスがいるとされる。これら影の人物がトランプ政権の転覆を企て、それをQanonが防衛するという荒唐無稽なストーリーとなる。(下の写真左側、活動家はQanonのシンボルマーク「Q」を身についている。)

出典: Los Angeles Times / Stripes

危険思想

このような事実は無く、Qanonが陰謀論と言われる所以である。Qanon信奉者はこの教義に基づき活動し、ヘイトスピーチや暴力行為に及び、政治や社会を脅かす。FBIはQanonを過激思想集団と位置付け、社会に脅威をもたらすとして警戒を続けている。Qanonはバイデン大統領の就任式を攻撃するとして、厳戒態勢の元で式典が実行された。また、ハリス副大統領は有色の女性であり、Qanonの標的にされている。(上の写真右側、「Q Sent Me」とはQanonに忠誠を誓うという意味。)

極右団体の活動が活発になる

Qanonの他に、多くの極右団体が活動を展開し、米国社会を不安定にしている。トランプ大統領の就任以降、米国では極右団体の活動が活発になっている。今までは、極右団体の活動は抑制されてきたが、2016年の大統領選挙で、トランプ氏が人種差別や外国人排除や女性軽視の発言を繰り返し、これが極右団体の活動を容認するものと受け止められ、これらの活動が一気に表面化した。

主な極右団体

極右団体の代表が「Proud Boys」で、白人至上主義で反イスラム教を掲げ、武器を携行して活動する。「III%er」はThree Percenters(上位3%の愛国者)と呼ばれ、アメリカを独裁政治から守ることを使命とする(下の写真左側、シンボルは星条旗にIIIを入れたデザイン)。名前の由来はアメリカ独立戦争で、国民の3%の愛国者がイギリスと戦い勝利したことによる。(これは歴史誤認でこのような事実はない。)「Oath Keeper」も私兵組織で、武器を携帯して反政府活動を展開する(下の写真右側、帽子にロゴが縫い付けられている)。この組織の特徴は現役兵士や引退した兵士をメンバーに雇い入れ、本格的な軍事活動を展開していること。これら組織のメンバーは”愛国者”を自認し、国民を”守る”ことをミッションとする。

出典: Oil City News / CNN

ソーシャルメディアの対応

主要ソーシャルメディアは、極右団体が連邦議会を襲撃したことを受け、前大統領のアカウントを閉鎖した。また、極右団体は交信のためにFacebookやTwitterなどを使っていたが、これらのアカウントも削除された。Facebookは2020年10月、Qanonに関するFacebookやInstagramのアカウントを削除した。Twitterは連邦議会攻撃事件を受けてQanonのアカウント7万件を削除した。

FacebookからParlerに

このため、極右団体はFacebookから新興ソーシャルネットワーク「Parler」に大移動を始めた。Parlerは2018年に創設されたソーシャルネットワークで、保守層を中心に利用されてきた。コンテンツの規制が緩やかなことから利用者数を伸ばしてきたが、あくまで一般ユーザを対象にサービスを運用してききた。ここに極右団体が大量に流れ込み、暴力行為やヘイトスピーチを助長する掲載が急増した。このため、ParlerをホスティングするAmazonはこのサービスを中止し、また、AppleやGoogleはParlerアプリをストアーから排除した。(下の写真、閉鎖中のParlerホームページ。CEOのJohn Matezは言論の自由を求めて戦うとの声明をここに掲載。)

出典: Parler

Telegram

このため、極右団体はTelegramへの移動を開始した。Telegramはメッセージングサービスで、ロシアの実業家Pavel Durovが運営している(下の写真)。余り知られていないが、全世界で4億人の利用者がいるとされる。Durovはソーシャルネットワーク「VK」を運用しており、ロシアのZuckerbergとも呼ばれる。Telegramは通常のメッセージサービスに加え、プライベートなフォーラムを運用しており、ここでセキュアにメッセージを交換できる。このフォーラムにアクセスするには鍵(Digital Key)が必要で、一般に知られることなく秘密裏に情報を交換できる。このため、過激派組織の温床となり、各国の治安当局から警告を受けるものの、対策は進んでいない。極右団体はここを拠点に活動を始めている。極右団体のメンバーはいわゆるデジタル・ネイティブで、ITを駆使して活動を展開する。彼らは自らを「Digital Soldier」と呼び、ソーシャルメディアの規制をかいくぐり、サイバースペースで戦闘を展開する。

出典: Voice of America

バイデン政権の課題

過激思想の9割は極右団体で、この活動は今に始まったわけでは無く、アメリカの歴史とともに歩んできた。時の政権はこの危険性を認識し、暴力行為や活動を抑制してきたため、社会の表に現れることは稀であった。しかし、トランプ政権の発足とともに、極右団体が”公認”され、活動が活性化し、殺傷事件を含む危険な行動が目立ってきた。トランプ氏が政権を去った後も、極右団体は多くの米国市民の支持を受け、活動を継続することとなる。バイデン政権はこれから極右勢力との長い戦いが始まる。

公開されているAIを悪用した攻撃が急増!!GANで高品質なフェイクメディアが量産され国家安全保障の危機

セキュリティの国際会議Black Hat 2020が開催され、最新の攻撃手法が報告された。今年は米国大統領選挙の年で、AIを使った攻撃が議論の中心となった。オープンソースとして公開されているAIを使うと、誰でも簡単に高品質のフェイクメディアを生成でき、情報操作の件数が急増している。

出典: FireEye

FireEyeのレポート

セキュリティ企業FireEyeはオープンソースのAIが悪用されている実態を報告した。これを使うと、誰でも簡単に高精度なフェイクイメージを生成でき、敵対する国家が米国などを標的に情報操作を展開している。FireEyeはシリコンバレーに拠点を置く企業でサイバー攻撃を防ぐ技術を開発している。

攻撃の概要

インターネット上にはオープンソースAI(ソースコードや教育済みのニューラルネットワーク)が公開されており、誰でも自由に使える状態になっている。これは研究開発を支援するための仕組みであり、オープンソースAIを改造して技術開発を進める。一方、この仕組みを悪用すると、簡単にフェイクメディア(偽のイメージや音声やテキスト)を生成できる。敵対国家は生成したフェイクメディアで西側諸国の世論を分断し社会を不安定にする。この情報操作は「Information Operations」と呼ばれ、米国で大統領選挙に向けて件数が急増している。

フェイクイメージ生成:StyleGAN2

情報操作で使われる手法は様々であるが、フェイクイメージを生成するために「StyleGAN2」が使われる。StyleGAN2とはNvidiaのKarrasらにより開発されたAIで、StyleGANの改良版となる。StyleGAN2はリアルなイメージを生成するだけではなく、アルゴリズムがオブジェクト(例えば顔)のパーツ(例えば目や鼻など)を把握し、異なるスタイルで対象物を描くことができる。

出典: NVIDIA Research Projects

StyleGAN2はGitHubにソースコードが公開されており、これを再教育することで目的のイメージを生成できる。オリジナルのStyleGANと比べて、StyleGAN2はエラー(Artifacts)が無くなり、イメージの品質が格段に向上した。(上の写真:StyleGAN2で生成した人間の顔のイメージ。このような人物は存在せず、攻撃者は架空の人物になりすまし、SNSで情報操作を展開する。)

StyleGAN2クラウド

アルゴリズムを再教育し実行するにはそれなりの技量がいるが、StyleGAN2のクラウドを使うと簡単にフェイクイメージを入手できる。その代表が「thispersondoesnotexist」で、StyleGAN2クラウドとしてAIが顔イメージを生成する(下の写真左端)。また、「thisartworkdoesnotexist」は抽象画を生成(下の写真中央)し、「thiscatdoesnotexist」は猫のイメージを生成する(下の写真右側)。これらはどこにも存在しない架空の人物や芸術や猫で、オンリーワンのオブジェクトとして希少価値がある。しかし、これらが悪用されると、真偽の区別がつかず、社会が混乱することになる。

出典: thispersondoesnotexist / thisartworkdoesnotexist / thiscatdoesnotexist

偽のトム・ハンクスを生成

このStyleGAN2に俳優トム・ハンクス(Tom Hanks)の写真を入力し、アルゴリズムを再教育すると、AIが本物そっくりのトム・ハンクスを生成する。(先頭の写真、左下が入力された写真で、右端が生成された偽のトム・ハンクス。)生成された顔写真はトム・ハンクスと瓜二つで、真偽の区別はできない。攻撃者はStyleGAN2を使って異なるシーン(表情や年齢やヘアスタイルなど)のトム・ハンクスを生成し、これら架空の顔写真で本人を攻撃したり、世論を操作することが懸念される。もはや、ネット上のセレブの写真は本物であるという保証はない。

フェイクボイス生成:SV2TTS

この他に、「SV2TTS」という技法を使うと、フェイクボイスを生成できる。SV2TTSとは、テキストを音声に変換する技術(text-to-speech)であるが、AIが特定人物の声を学習する(下の写真)。例えば、SV2TTSに文章を入力すると、トム・ハンクスがそれを読み上げているフェイクボイスを生成できる。この技術はGoogleのYe Jiaなどによって開発され、GitHubにソースコードが公開されている。

出典: Corentin Jemine

フェイクテキスト生成:GPT-2

更に、「GPT-2」を使うと、AIが人間のように文章を生成する。生成された文章はごく自然で、人間が作成したものと区別はつかない。GPT-2はAI研究非営利団体OpenAIにより開発され、その危険性を認識して、ソースコードは公開されていなかった。しかし、AIコミュニティが研究開発を進めるためはソースコードが必須で、OpenAIはこの方針を撤回し、GitHubにGPT-2を公開した。

GPT-2がツイートを生成

このため、テキスト生成の研究が進むと同時に、GPT-2を悪用した攻撃も始まった。GPT-2をソーシャルメディアのテキストで教育すると、AIがリアルなツイートを生成する。更に、情報操作のために発信されたツイートで教育すると、人間に代わりGPT-2が世論を操作するツイートを生成する。実際に、ロシアの情報操作機関Internet Research Agencyが発信したツイートで教育され、GPT-2が米国の世論を分断するツイートを自動で生成する。

出典: FireEye

(上の写真:GPT-2が情報操作のためのツイートを生成した事例。GPT-2は「It’s disgraceful that they are deciding to completely ban us! #Immigrants #WakeUpAmerica」と、トランプ大統領の移民禁止政策に反対するツイートを生成。GPT-2が生成するツイートは短く簡潔で、ツイッター独自の言い回しで、しばしば間違った文法の文章を生成。文章の最後にはハッシュタグを挿入。人間が生成したものとの見分けはつかず、AIが人間に代わり社会を攻撃する。)

Twitter Botsによる偽情報

いま、ツイッターにはコロナウイルスに関するツイートが数多く掲載されているが、このうち半数がAI(Twitter Botsと呼ばれる)により生成されたものである。これらツイートは社会を混乱させることを目的とし、「既往症があればコロナウイルスのPCR検査は不要」などと主張する(下の写真)。もはや、フェイクとリアルの見分けはつかず、読者は状況を総合的に判断して理解する必要がある。また、AI開発ではソースコードの公開が必須であるが、AI開発者はフェイクを見分ける技術の開発も求められている。

出典: “Sara”

米国大統領選挙への介入

今年11月には米国大統領選挙が行われ、既に、ロシアや中国やイランが情報操作作戦を展開している。国家情報局・防諜部門(National Counterintelligence and Security Center)によると、ロシアはトランプ大統領再選を目指し、中国とイランはバイデン候補を支援する情報操作を展開していると報告している。また、Black Hatセキュリティ国際会議で、ロシアの情報操作技術が他国に比べ圧倒的に高く、最も警戒すべき国家であると報告された。米国や西側諸国はAIを悪用した攻撃に対する防衛能力が試されている。

AIが業務メールを読んで詐欺を検知、自然言語解析をセキュリティに応用

先週、サンフランシスコでセキュリティのカンファレンス「RSA Conference (#RSAC2020)」が開催された。今年のテーマは「Human Element」で、技術が人々にどう役立つかのを見直そうというもの(下の写真)。技術進化が著しいが、セキュリティの目的は人間を攻撃から守ることにある。会場にはAIをセキュリティに応用したツールが数多く展示され、アルゴリズムが攻撃を防御する方向が鮮明になってきた。

出典: VentureClef

ビジネスEメール詐欺が急増

いま、米国を中心にビジネスEメール詐欺(Business Email Compromise、BEC)が急増している。ビジネスEメール詐欺とは、業務用メールを使って相手を欺き、お金を盗み取る詐欺行為を指す。サイバースペースだけでなく、実社会でも行われている詐欺行為で、誰でも攻撃者になれることから米国を中心に被害件数が急増している。

FBIレポート

アメリカ連邦捜査局(FBI)はインターネット上の詐欺行為を分析し、その結果を報告書「Internet Crime Report」として公開している。このレポートによると、2019年度の米国での被害件数は46万件で、被害総額は35億ドルとなっている(下のテーブル)。この中でビジネスEメール詐欺(BEC/EAC)の被害額がトップで、その金額は18億ドルと全体の半分を占めている(下のテーブル、最上段)。

2019年のインターネット犯罪動向

FBIレポートによると、ビジネスEメール詐欺は2013年ころから始まり、犯罪者は企業のCEOになりすまし、偽のEメールでお金を送金させる手口を取った(「CEO Fraud」と呼ばれる)。その後、詐欺の手口は広がり、社員や取引先になりすまし、偽のメールで送金を求めたり、ギフトカードを買わせる攻撃が広がった。2019年の特徴は給与振り込み詐欺で、社員になりすまし偽のメールで経理部から給与を指定口座に振り込ませる詐欺が広がった(「Payroll Fraud」と呼ばれる)。

出典: Federal Bureau of Investigation

給与振り込み詐欺の実例

ビジネスEメール詐欺では、まず、攻撃者がフィッシングなどの手法で社員の認証情報(IDとパスワード)を奪う。次に、攻撃者は社員になりすまし、偽のメールを社内や社外のターゲットに送り、犯罪者の口座にお金を送金させる。

出典: Symantec

給与振り込み詐欺のケースでは、会社の社員になりすまし、経理担当者に偽のメールを送り、指定口座に給与を振り込ませる(上の写真)。会社の社員になりすました攻撃者が、偽のメールを経理部門に送り、「給与振り込み先について、銀行口座を変更したので情報をアップデートしてほしい」と依頼。これにより、次回の給与は攻撃者が指定する銀行口座に振り込まれる。

Armorbloxというベンチャー企業

ビジネスEメール詐欺をAIで検知するソリューションの開発が進んでいる。その先頭を走るのはArmorbloxというベンチャー企業で、シリコンバレーに拠点を置きAIや自然言語解析をベースにしたEメールセキュリティ技術を開発している。業務用メールの内容をAIで解析して問題点を検知する手法を取り、Microsoft Office 365やGoogle G Suitなどをサポートしている。

AIがメールの内容を理解

ArmorbloxはAIがメールの内容を解析し、そこから攻撃の手口を検知する手法に特徴がある。AIが不正を検知すると警告メッセージを表示して注意を促す(下の写真)。具体的には、AIは「(メール発信者である)Jack Dorseyはこのアドレスからメールを発信しない」と警告。また、AIがメール本文を読み、そこには「カードを紛失したので別のカード情報を今晩までに送ってほしい」と書かれていることを理解し、AIは「今晩までという急な要請は不正の手口」と解析し、これは詐欺メールであると判定する。

出典: Armorblox

システム構成

Armorbloxは機械学習(Machine Learning)や深層学習(Deep Learning)の技法を使ってEメールを解析する。特に、自然言語解析(Natural Language Understanding)に特徴があり、メールに書かれていることを理解して、詐欺や問題点を検知する。この手法でビジネスEメール詐欺を検知するが、それ以外にも、機密情報の流出を検知する機能 (Data Loss Prevention)も備えている。

AIを教育するプロセス

Armorbloxのブース(下の写真、左側)でAIを教育する手法について説明を受けた。AIは基本教育ができており、企業はそれをそのまま使うことができる。一方、AIの検知精度を上げるため、企業は保有しているEメールのログを使ってAIを再教育する。これにより、AIは利用者の特性(名前や職務、上司関係、メールを書くスタイル)を理解し、アルゴリズムは検知精度を上げる。また、利用者がArmorbloxの判定結果を見て、それにコメントすることもできる。AIはこれらのフィードバックを学習し、更に判定精度を上げる。

出典: VentureClef

Armorbloxの特徴

市場にはビジネスEメール詐欺を検知するソフトウェアは数多く登場している。これらは、ルールベースでシステム管理者がマニュアルで特定の単語や規則を指定する。しかし、これらシステムの判定精度は高くなく、誤検知(False Positive)が多く、管理者が手作業でここから詐欺メールを選び出す作業が必要となる。これに対して、ArmorbloxはAIや自然言語解析が人間に代わりこのプロセスを実行する。

新型コロナウイルス

サンフランシスコ市は新型コロナウイルスの蔓延で非常事態宣言を発令した。展示会やイベントの中止が相次ぐ中、RSA Conferenceは予定通り開催された。会場やブースにはアルコール消毒液が置かれ (上の写真、右側)、厳戒体制での開催となった。米疾病予防管理センターは感染予防策としてSocial Distance(相手と1メートル以上離れる)とElbow Bump(握手の代わりに肘タッチ)を推奨するが、会場ではこれを励行する様子はなかった。こまめに手洗いしながらの面談となり危険を感じながらのカンファレンスとなった。

新型コロナウイルスのフェイクニュースで世界が混乱、Googleは偽情報を検知する技術を開発

新型コロナウイルス(Novel Coronavirus)が中国から各国に広がり、世界が危機的な状況にある中、新型ウイルスの虚情報がネットで拡散している。個人がフェイクニュースを発信するだけでなく、ロシアは米国を攻撃するために偽情報を拡散している。サイバースペースでは国家が偽情報を武器として使っている。ソーシャルメディアの危険性が改めて認識されるなか、Googleは偽情報を検知する技術を公開した。(下の写真:武漢の市街地を除菌する車両)

出典: China Daily

ロシアの攻撃

今週、主要メディアは、米国政府関係者筋の情報として、ロシアが新型ウイルスに関する偽情報を大量に発信し、米国を攻撃していると報じた。ロシアはソーシャルメディアで多数の偽アカウントを開設し、ここからフェイクニュースを大量に発信している。その内容は、「新型ウイルスは米国により開発されたもので、これを生物兵器として中国で拡散させている」というもので、フェイクニュースが攻撃手段として使われている。

偽情報を拡散する目的

ロシアが偽情報を発信する目的は、米国の国際的な信用度を落とし、米国社会の不安を増長させることにある。情報操作は冷戦時代に始まり、ソビエト連邦のKGBはエイズを発症させるHIVについて偽情報を発信したという経緯がある。米国の科学者がHIVを開発し、それが世界に蔓延したというもので、フェイクニュースの原型となる。このような経緯もあり米国諜報部門は新型ウイルスに関しロシアの情報操作を警戒していた。

米国は中国を攻撃

偽情報を発信しているのはロシアだけでなく、米国で新型ウイルスの陰謀説が流布している。右派系ニュースサイト「G News」は、武漢(Wuhan)にある研究施設(Wuhan Center of Disease Control and Prevention)から新型ウイルスが流出したことを中国政府が認めた、という記事を公開した(下の写真、ファクトチェックサイトはこれを偽情報と判定)。その後、共和党議員(Tom Cotton)がテレビ番組(Fox News)で、この問題を取り上げ、この陰謀説が全米に広がった。これに対して、米国の科学者団体は、偽情報を拡散することは新型ウイルス対策を遅らせることになるとして、警告メッセージを発信した。

出典: PolitiFact

ロシアが再び大統領選挙に

今年は米国大統領選挙の年だが、米国諜報部門はロシアが既に選挙戦に介入していることを議会委員会に報告した。ロシアはソーシャルメディアを使い、偽情報を流布し、米国有権者の世論を操作している。2016年に続き今回も、ロシアはトランプ氏を支援し、再選できるための情報戦を展開している。同時に、民主党の候補者サンダース氏を後押ししていることも明らかになった。ロシアがどのような手口でこれを進めているかは公開されていないが、偽情報で国民世論を分断する手法が取られると予測されている。

Googleの偽情報対策

社会にフェイクニュースが拡散しているが、これらはDisinformation(偽情報)と呼ばれ、世論を二分し社会を不安定にすることを目的としている。Google配下の「Jigsaw」は偽情報を検知する技術を開発しており、この内容を発表した。この技術は「Assembler」と呼ばれ、フェイクイメージを検知する機能を持つ。Assemblerは報道機関向けに公開され、各社はこの技術を使い、写真が加工されているかどうかを把握する。AssemblerはDeepFakes(高度なAIで生成されたフェイクイメージ)も検知することができる。

Assemblerの機能概要

Assemblerは入力された写真を解析し、イメージの中で改造された部分を特定する。Assemblerのスライドを左右に動かすと、写真の中で加工された場所を赤色のドットで示す(下の写真、星条旗の部分)。AssemblerはUC Berkeleyなどと共同で開発され、改造イメージの検知にはこれら研究機関の技術が使われている。具体的には、コピーされた部分、追加または消去された痕跡、異なるカメラで撮影された部分を検知する技術が組み込まれている。

出典: Jigsaw

Assemblerの特徴

これに加え、JigsawはDeepFakesを検知する技術を開発した。具体的には、StyleGAN(スタイルを変換してイメージを生成する技法)という手法で生成されたフェイクイメージを検知するAIを開発した。リアルとフェイクのイメージでアルゴリズムを教育し、AIはGANが生成したシグナルを検知する。また、Jigsawは、上述の研究機関が開発した検知技術を統合する技法を開発した。これはEnsemble Modelと呼ばれ、個々に検知したシグナルを統合し、モデルが複数の改造を同時に高精度で把握する構造とした。

記事の真偽を判定するツール

新型ウイルスの発生源は特定されていないが、ウイルスはコウモリに由来するとの科学レポートもある。ソーシャルメディアには、武漢のレストランでコウモリのスープが出されているとの記事が写真とともに掲載されている(下の写真)。また、それを女性が食べている写真もネットで拡散している。一見してフェイクニュースと思われるが、100%確信を持てるわけではない。

出典: China Daily

これ以外にも、ネット上にはショッキングな写真が数多く掲載されており、明らかにフェイクと分かるものもあるが、真偽の判定が難しい写真も少なくない。やはり、Assemblerのように真偽を判定するツールが必要となる。また、記事を掲載するソーシャルメディアは、その内容をツールで解析し、偽情報であればその旨を読者に知らせる仕組みも求められる。

顔認識AIの危険性が暴露、我々の顔写真が全米の警察で使われている!!

FacebookやTwitterに投稿した顔写真が全米の警察の犯罪捜査で使われていることが判明した。日本人を含む消費者の顔写真が顔認識システムに組み込まれ、犯罪者割り出しに使われている。警察は容疑者の写真を撮影し、それを顔写真データセットで検索し、容疑者の身元を割り出す。その時に使われる顔写真データセットは、ソーシャルメディアに掲載されている顔写真をダウンロードして作られた。写真の数は30億枚を超え、我々の顔写真が含まれている可能性は極めて高い。警察は容疑者の身元を特定でき犯罪捜査が効率的になると評価している。一方、消費者は本人が知らないうちに顔写真が使われ気味悪さを感じている。顔認識システムの暴走がAIに対する不信感を増長している。

出典: Clearview

Clearviewという会社

この技術を開発したのはNew Yorkに拠点を置くベンチャー企業「Clearview」で世界最強の顔認識システムともいわれている(上の写真)。Clearviewはサイトに公開されている顔写真をダウンロードして顔写真のデータセットを作成した。写真の数は30億枚を超え、世界最大規模の顔写真データセットとなる。Clearviewの技術は米国主要都市の警察に提供され、容疑者の身元を特定するために使われている。警察はスマホで容疑者の顔を撮影し、それをキーにデータセットを検索すると、容疑者のIDが分かる。

使い方はシンプル

Clearviewは顔認識技術をスマホやパソコン向けのアプリとして提供している。スマホで撮影した顔写真はアプリで解析され、その人物に関する情報を表示する。例えば、スマホで記者の顔写真を撮影すると(下の写真、右下の丸の部分)、アプリはその顔と同一人物の顔写真を出力する(下の写真、中央部)。出力した顔写真の下には、それが掲載されているサイトのURLが示され、このサイトを閲覧することで氏名などの個人情報を得ることができる。

出典: CBS News

顔写真データセット

Clearviewは顔写真データセットを制作するために、サイトに公開されている顔写真をスクレイピングした。スクレイピングとはウェブページに掲載されている顔写真ファイルをダウンロードすることで、YouTube、Facebook、Twitter、Venmoなど、ソーシャルネットワークを中心に顔写真が収集された。収集した顔写真の数は30億枚に上り、世界最大規模の顔写真データセットが誕生した。登録されている顔写真の数が多いほど、顔認証システムの判定精度が高くなる。

シカゴ市警察で犯罪捜査に利用

Clearviewの判定精度は極めて高く、それが口コミで広がり、全米の警察関係者がその存在を知ることになった。今では600を超える警察で使われている。シカゴ市警察は専任スタッフが犯罪捜査で容疑者を特定するためにClearviewを使っている。具体的には、犯罪者データベースに格納されている被疑者の顔写真をClearviewに入力し身元を特定する。また、犯罪現場では、被疑者の顔写真を撮影し、これをClearviewで解析してIDを特定する。

フロリダ州では迷宮入りの事件を解決

フロリダ州ゲインズビル市警察は「FACES」と呼ばれる顔認識ツールを使ってきた。FACESはFBIが開発した顔認識技術で、全米の警察が犯罪捜査ツールとして使っている。しかし、Clearviewを使うとFACESで特定できなかった容疑者の身元が次々と判明した。Clearviewの顔写真データセットは世界最大規模で、カバーする人物の数が多いため、迷宮入りになった事件が解決されている。

ニュージャージー州はClearviewの使用を禁止

しかし、ニュージャージー州の司法長官はClearviewの使用を禁止する通達を出した。ニュージャージー州警察はClearviewを利用しており、顔認識技術を犯罪捜査に使うことで、事件を早く解決できる。このため、司法長官はこの顔認識技術を使うことに関しては肯定的な評価をしている。一方、Clearviewのケースでは、顔という生体情報が消費者の許諾なく収集されていることに問題があると指摘する。この問題が解決されるまではClearviewの使用は禁止される。

顔写真を収集する手法

Clearviewが顔写真を収集する手法が議論となっているが、この事例は個人データを利用する事業者に本質的な問題を提起する。Clearviewは、YouTubeやFacebookやTwitterなどに掲載されている顔写真ファイルをスクレイピングするが、これらは消費者が投稿したもので、写真は公開情報であり、それを収集することは違法ではない。事実、米国には公開情報を収集することを禁止する法令は無い。また、セレブのデータセット「CelebA」(下の写真)は、サイトから20万枚の顔写真をスクレイピングして生成されたが問題とはなっていない。

出典: Multimedia Laboratory, The Chinese University of Hong Kong

YouTubeやTwitterは写真消去を要求

Clearviewの存在が明らかになり、顔写真がスクレイピングされている事実が判明し、これらのサイトは一斉に写真の収集を停止するよう求めている。YouTubeやTwitterやVenmoは、Clearviewにサイトから顔写真をスクレイピングしないよう書簡を送った。また、収集したデータを消去することも求めている。掲載されている情報をスクレイピングすることはサイトの利用規約に反すると説明している。特に、YouTubeは使用規約で、本人を特定するためにデータを使うことを禁止している。

スクレイピングは憲法で保障された権利

これに対して、ClearviewのCEOであるHoan Ton-Thatは、企業が公共のデータにアクセスする権利は、アメリカ合衆国憲法修正第1条(First Amendment)で保障されていると主張する。修正第1条は「表現の自由」や「報道の自由」などの権利を定めており、公開されている情報を収集することは、憲法でその権利が保障されているとのロジックを展開している。

顔認識システムについての議論

Clearviewは警察だけに提供されており、一般には公開されていない。警察がテロリストや犯罪者を特定し、社会の治安が保たれるとの期待から、これを容認する意見もある。しかし、警察が使用範囲を広げ、デモ参加者を特定する使い方が始まると、この限りではない。更に、企業や個人がこの技術を手にすると、その危険性がぐんと広がる。街中で我々の写真が撮られると、即座に氏名や住所や所得などの個人情報が判明し、プライバシーは消滅する。恐れていた事態が現実となり、米国で顔認識システムについて国民的議論が始まった。