カテゴリー別アーカイブ: Facebook

フェイスブックは家庭向けロボットを開発!?ロボットの頭脳に人間の常識を教える

ロボティックスに関するカンファレンス「RE•WORK Deep Learning in Robotics Summit」がサンフランシスコで開催された (下の写真)。ロボットの頭脳であるDeep Learningにフォーカスしたもので、OpenAIやGoogle Brainなど主要プレーヤーが参加し、基礎技術から応用技術まで幅広く議論された。

出典: VentureClef

Embodied Vision

フェイスブックAI研究所 (Facebook AI Research) のGeorgia Gkioxariは「Embodied Vision」と題して最新のAI技術を紹介した。Embodied Visionとは聞きなれない言葉であるが、Computer Visionに対比して使われる。Computer Visionがロボット (Agent) の視覚を意味することに対し、Embodied Visionはロボットの認知能力を指す。ロボットが周囲のオブジェクトを把握するだけでなく、人間のようにその意味を理解することに重点が置かれている。

Learning from Interaction

フェイスブックAI研究所はこの命題にユニークな視点から取り込んでいる。Gkioxariは、AIを人間のようにインテリジェントにするためには、「Learning from Interaction」が必要だと主張する。これは文字通り、インタラクションを通じて学習する手法を意味する。いままでにAIはデータセットからComputer Vision習得した。例えば、写真データセット「ImageNet」から猫や犬を判定できるようになった。これに加え、AIは環境 (Environment) のなかで、モノに触れて、その意味を学習することが次のステップとなる。Gkioxariは、赤ちゃんが手で触ってモノの意味を学ぶように、AIもインタラクションを通じ基礎知識を学習する必要があると説明した。

仮想環境を構築

このため、フェイスブックAI研究所は、AI教育のために仮想環境「House3D」を開発した。これは住宅内部を3Dで表現したもので、ロボットがこの中を移動しながら常識を学んでいく。ロボットが移動すると、目の前のシーンが変わっていくだけでなく、シーンの中に登場するオブジェクトには名前が付けられている。つまり、ロボットは仮想環境の中を動き回り、オブジェクトに接し、これらの意味を学習する。ロボットは異なるタイプの部屋からキッチンの意味を把握し、そこに設置されているオーブンや食器洗い機などを学んでいく (下の写真)。

出典: Georgia Gkioxari

学習方法

フェイスブックAI研究所は三つの視点からロボットを教育する。ロボットが仮想環境の中で、モノを見て言葉の意味を学習する。これは「Language Grounding」と呼ばれ、ロボットは環境の中でモノと名前を結び付ける (部屋の中で長い緑色のロウソクをみつけることができる)。二番目は、ロボットは家の中で指定された場所に移動する。これは、「Visual Navigation」と呼ばれ、ロボットは家の中の通路を辿りドアを開け、指定された場所まで移動する (寝室に行くように指示を受けるとロボットはそこまで移動する)。

EmbodiedQA

三つめは、ロボットは質問を受けると、家の中を移動してその解を見つけ出す。これは「EmbodiedQA」と呼ばれ、ロボットは回答を見つけるために仮想環境の中を移動する。従来のロボットはインターネット上で答えを見つけるが、EmbodiedQAは物理社会の中を移動して解を求める。例えば、「自動車は何色?」という質問を受けると (下の写真左側)、ロボットは質問の意味を理解し、家の中で自動車を探し始める。自動車はガレージに駐車されているという常識を働かせ、家の中でガレージに向かって進む。ロボットはその場所が分からないが、ここでも常識を働かせ、ガレージは屋外にあると推測する。このため、ロボットは玄関から屋外に出て、庭を移動し、ガレージにたどり着く。そこでロボットは自動車を発見し、その色が「オレンジ色」であることを把握する (下の写真右側)。

出典: Georgia Gkioxari

必要な機能

このタスクを実行するためには、ロボットの頭脳に広範なAI技法が求められる。具体的には、視覚(Perception)、言葉の理解(Language Understanding)、移動能力(Navigation)、常識(Commonsense Reasoning)、及び言葉と行動の結びつき(Grounding)が必要になる。Gkioxariの研究チームは、前述の3D仮想環境「House3D」でEmbodiedQAのモデルを構築しタスクを実行することに成功した。

ロボットの頭脳

このモデルでロボットの頭脳はPlannerとControllerから構成され (下の写真)、Deep Reinforcement Learning (深層強化学習) の手法で教育された。Plannerは指揮官で、進行方向(前後左右)を決定し、Controllerは実行者で、指示に従って進行速度(ステップ数)を決定する。PlannerはLong Short-Term Memory (LSTM) というタイプのネットワークで構成され、上述の通り、これをDeep Reinforcement Learningの手法で教育する。Plannerは人間のように試行錯誤を繰り返しながら常識を習得する。

出典: Georgia Gkioxari

知的なAIの開発は停滞

フェイスブックAI研究所は、これらの研究を通して、インテリジェントなロボットの開発を進めている。AIが急速に進化し、イメージ判定では人間の能力を上回り、囲碁の世界ではAIが人間のチャンピオンを破り世界を驚かせた。AIの計り知れない能力に圧倒されるが、AIは知的というにはほど遠い。AIはオブジェクト(例えば猫)の意味を理解しているわけではなく、また、囲碁という限られたタスクしか実行できない (例えばAlphaGOはクルマを運転できない)。いまのロボットは人間のように家の中を移動することさえできない。つまり、人間のようにインテリジェントに思考できるAIの開発はブレークスルーがなく滞ったままである。

精巧な仮想環境

このため、フェイスブックAI研究所は、全く異なるアプローチでAIを開発している。実社会を模した3D仮想環境の中でAIを教育し、この中でAIが複雑なタスクを自ら学んでいくことを目指している。AIが実社会の中で学習することで、人間のような視覚を持ち、自然な会話ができ、次の計画を立て、知的な思考ができるアルゴリズムを開発する。このためには、実社会そっくりな仮想環境が必要で、家の中を写真撮影したように忠実に描写した3D環境を開発している。同様にOpenAIやGoogle DeepMindもこのアプローチを取っており、精巧な仮想環境でDeep Reinforcement Learningの開発競争が激化している。

フェイスブックがロボット開発

ロボットの頭脳が知的になることで、人間の暮らしが根本的に変わる。フェイスブックは仮想アシスタント「M」を開発してきたが、製品としてリリースすることを中止した。Mはホテルのコンシェルジュのように、どんな質問にも答えてくれる仕様であったが、人間との会話トピックスは余りにも幅が広く、AIはこれに対応できなかった。また、フェイスブックはAIスピーカーを開発しているとも噂されている。Embodied Visionは仮想アシスタントやAIスピーカーを支える重要な基礎技術となる。更に、この研究が上手く進むと、家庭向けロボット開発のロードマップが見えてくる。フェイスブックがインテリジェントな家庭向けロボットを開発するのか、市場の注目が集まっている。

FacebookはAIでフェイクニュースを取り締まる、(トランプ大統領誕生の悲劇を繰り返さないために)

米国大統領選挙でFacebookを介してフェイクニュースが拡散し世論が操作された。発信元はロシアで、この結果トランプ氏が当選したとも言われている。Facebookは対策が不備であったことを認め、AIを駆使したフェイクニュース対策を発表した。米国だけでなく欧州やアジアでも、フェイクニュースによる世論操作が顕著になっている。

出典: Facebook

Facebook開発者会議

Facebook CEOのMark Zuckerbergは2018年5月1日、開発者会議F8で選挙対策、フェイクニュース対策、データプライバシー対策など、プラットフォームの安全性を強化するための基本指針を発表した (上の写真)。2016年の米国大統領選挙では対応が不十分で、ロシアによるフェイクニュースが拡散し、これが選挙結果に大きく影響したことを認めた。この教訓を踏まえ、AIやMachine Learning (機械学習) やComputer Vision (画像解析) を活用し、不適切な記事を検知し、拡散する前に取り除く対策を発表した。

既に対策が進んでいる

既に対策が実施されており、フランス大統領選挙、ドイツ連邦議会選挙、米アラバマ州上院補選では、AIツールが使われ数十万の不正アカウント (Fake Account) が削除された。また、米大統領選挙の追跡調査で、不正アカウントを辿るとロシアが関与していることが分かり、これらを閉鎖したと公表した。今年は米国で中間選挙が、この他に、メキシコ、ブラジル、インド、パキスタンなどで重要な選挙が予定されており、Facebookが悪用されないために万全の対策を講じることを宣言した。

ヌードと暴力シーン

FacebookはZuckerbergの講演に続き、不適切な投稿を削除するための具体的な対策を発表した。不適切コンテンツは幅が広く、それを検知する技法も異なる。不適切コンテンツの代表はヌード写真や暴力シーンであるが、これらはComputer Visionを使って検知する。AIの進化でComputer Visionの性能が向上し、これらを高精度で判定する。システムがほぼ全自動で削除するが、判定が難しいものについては専任スタッフが対応する。

ヘイトスピーチ

反対に、AIにとって一番難易度が高いのがヘイトスピーチの検知である。ヘイトスピーチとは、人種や宗教や性的指向などに対して誹謗中傷する行為を指す。攻撃は投稿されるメッセージで行われ、AIはテキストの内容を理解する必要がある。記事は相手を中傷しているのか、それとも、別のことを意図しているのか、コンテクストの理解が必須となる。

検知が難しい理由

例えば、「I’m going to beat you!」というメッセージを受け取ると、これは自分を中傷してるかどうかの判断は文脈による。「あなたを叩く」という意味だと攻撃で、「あなたに勝つよ」という意味だと、お互いに切磋琢磨しようというポジティブな意味にもなる (下の写真、「Look at that pig!」も解釈が難しい)。

出典: Facebook

AI技法を開発中

人間でも判断に迷うことがあるが、AIにとっては最難関の分野で、今の技術では正しい判定はできない。この理由の一つが教育データの不足で、アルゴリズムを教育するためヘイトスピーチの事例を集めることが喫緊の課題となっている。このため、Facebookは別のAIでヘイトスピーチを自動生成する技術を開発しており、二つのAIでヘイトスピーチを検知する技法を目指している。

フェイクニュース

大統領選挙で問題となったフェイクニュースについて、Facebookは重点課題として対策を進めている (下の写真)。AIがこれを直接検知する技術は確立されていないため、フェイクニュースを発信している不正アカウントを突き止め、これらを閉鎖することで情報拡散を防止する。

出典: Facebook

不正アカウントはフェイクニュースだけでなく、スパムや悪質な広告を発信する目的でも使われている。このため、詐欺被害が相次ぎ、Facebookは対策を進めている。不正アカウントは特異な挙動を示し、AIがこのパターンを検知する。例えば、スパムを発信する不正アカウントは、記事を高頻度で投稿するなど特異な挙動を示し、このシグナルをMachine Learningの手法で検知する。

テロリズム

ソーシャルメディアが過激派組織の広告塔として使われ、深刻な社会問題を引き起こしている。FacebookはAIを導入し、イスラム国やアルカイダなどのプロパガンダを特定し、これらを削除している。2018年第一四半期にはイスラム国とアルカイダに関連するコンテンツ190万件を削除し大きな効果をあげている。

過激派組織が投稿するコンテンツはAIが検知する。写真については、AIが既に削除した写真やビデオと比較し、これらを特定する。テキストについては、AIがテロリズムを奨励するテキストを理解する。アルゴリズムが、既に削除されたテキストを学習し、文字ベースのシグナルを把握する。AIがテロリズムに関連するコンテンツを検知するとともに、専任スタッフや専門家がマニュアルでこれらの作業を並行して行う。

AIの限界

Facebookはこれらの対策でAI、Machine Learning、Computer Visionを使っているが、上述の通り、全ての問題を解決できる訳ではない。このため、Facebook利用者のフィードバックが重要な情報源となる。Facebookは不適切なコンテンツがある場合はレポート (下の写真) してほしいと利用者に呼び掛けている。同時に、Facebookは専任スタッフを2万人に増員し、手作業による不適切コンテンツの摘発を進める。

出典: Facebook

プラットフォームの責任

先の大統領選挙では、Zuckerbergはオバマ政権からFacebookを使った情報操作が行われているとの警告を受けたが、その対策は講じなかった。この理由は、Facebookはニュース配信社ではなく“掲示板”であり、恣意的に特定記事を削除することは妥当でないとの解釈による。しかし、Cambridge Analyticaの個人データ流出問題を受け、Facebookが社会に与えた影響は甚大であることが明らかになり、Zuckerbergは会社の方針を大きく転換した。掲示板であるが不適切な記事は掲載させないことがプラットフォームの責務であるとの指針のもと、AIツールを駆使して再び世論が操作されることを阻止している。

フェイスブック個人情報の不正使用問題、Cambridge Analyticaとはどんな企業か、大統領選挙への影響はあったのか

Facebook利用者の個人情報が不正に使われ、情報管理の責任が厳しく問われている。この疑惑の中心は英国のCambridge Analyticaというベンチャー企業で、5000万人の個人情報を不正に入手した疑いがもたれている。Cambridge Analyticaはこれら個人情報をAIの手法で解析し、米国大統領選挙に影響を与えたとされる。

出典: Google

Cambridge Analyticaとは

Cambridge Analyticaはロンドンに拠点を置くベンチャー企業で、データサイエンスの手法で消費者や有権者のパーソナリティを把握する技術を開発 (上の写真、本社ビル)。二つのソリューションを提供しており、広告企業には消費者を対象としたターゲティング広告を、選挙関係者には有権者を解析する選挙ツールを提供する。Facebook個人情報が有権者の政治指向を把握するために使われたと疑われている。

Psychographic Analysisという技法

消費者や有権者を解析する際に「Psychographic Analysis (心理解析)」と呼ばれる技法が使われる。これは、個人の性格を把握しグループ化する手法で、Facebookプロフィール情報を使って、利用者の性格特性を導き出す。具体的には、利用者がLike Button (いいね!ボタン) を押した情報でパーソナリティを把握することができる。

モデルを応用すると

このモデルを使うとアルゴリズムは、画家のダリ (Salvador Dalí) が好きな人は開放的な性格で、ジョギングを趣味とする人は几帳面な性格と判定する。また、アニメや漫画が好きな人は社交的でないと診断する。これを選挙に応用すると様々な知見を得ることができる。このモデルは共和党支持者と民主党支持者を正確に判定できる。更に、共和党支持者のなかで、閉鎖的で心配性な有権者を特定することができる。アルゴリズムはこのグループが低学歴で高齢の男性の共和党支持者と推定する (トランプ大統領のコア支持者層を示す)。Psychographic Analysis はLike Buttonを押すパターンとパーソナリティの間には強い相関関係があることを示している。

Psychographic Analysisとは】

ベースとなる研究論文

この技法のベースとなる理論は、ケンブリッジ大学心理学部 (Department of Psychology, University of Cambridge) とスタンフォード大学コンピューターサイエンス学部 (Department of Computer Science, Stanford University) が共同で開発した。この手法を使うとLike Buttonデータをアルゴリズムに入力すると、被験者のパーソナリティを5つの要素で推定する。人間のパーソナリティは五つの要素で構成され、それぞれ、Openness(開放性)、Conscientiousness(良心的)、Extraversion(外交的)、Agreeableness(協調性)、Neuroticism(不安感) となる。これらがどんな比重で構成されるかで人の性格が決定づけられる。

出典: Michal Kosinski et al.

Personality Test

両大学はPsychographic Analysisについて論文「Computer-based personality judgments are more accurate than those made by humans」でその手法を発表した。この手法は被験者のパーソナリティをFacebookのLike Buttonから判定する。最初に、被験者 (70,520人) がPersonality Test (性格診断テスト) を受け、性格を判定する。性格は上述の五つの要素で構成され、Personality Testによりそれぞれの重みが決まる (上のグラフィック、左端)。

Facebook Likes

次に、これら被験者の Facebook個人プロフィール情報を参照する。Like Buttonを押した対象 (例えばRunning、Ford Explorer、Barak Obamaなど) を把握し、被験者がどの項目に興味を示しているかを掴む (上のグラフィック、左から二番目)。

情報収集方法

これら個人情報を収集するためにアプリ「myPersonality」が開発された。利用者はこのアプリでPersonality Testを受け自分の性格を知ることができる。また、利用者の許諾のもと、アプリはLike Buttonが押された情報を収集する。これらの情報は学術研究のためだけに利用された。

機械学習の手法

Personality TestとLike Buttonの情報が集まると、次に、これらデータ間の関連性を機械学習 (Linear Regression) の手法で導き出す。パーソナリティといいね!ボタンの関連性を定義する変数を導き出す。例えば、外向性が強い人は、Running、Ford Explorer、Barak Obamaなどの項目をどんなパターンで好むかを算定する (上のグラフィック、左から三番目)。

モデルで判定

決定したモデルを使って実際の判定を実施する。Personality Testを受けていない被験者のLike Button情報をこのモデルに入力すると、個人のパーソナリティを判定する。上述の五つの構成要素がどの割合であるかを推定する (上のグラフィック、右端)。このモデルはLike Button情報だけで、その人物の性格を推定できることを示している。

モデル開発を開始

Cambridge Analyticaは米国大統領選挙に先立ち、モデルを開発するために、Psychographic Analysisを開発したケンブリッジ大学にコンタクトし協力を求めた。しかし、賛同をえることができず、この研究に詳しい同大学のAleksandr Kogan教授に支援を求めた。Kogan教授は上述の手法をベースにモデルを開発した。

5000万人の個人情報を収集

Kogan教授は上述「myPersonality」を模した性格診断テストアプリ「thisisyourdigitallife」を開発し、Facebook利用者27万人がこれを利用した。利用者はこのアプリで自分のパーソナリティを知ることができる。同時に、アプリは個人情報にアクセスすることを求め、プロフィールデータが収集された。更に、アプリは利用者の友人のプロフィール情報にもアクセスし、Kogan教授は5000万人分の個人情報を入手した。このデータに対しPsychographic Analysisの手法で解析を実行し、3000万人のパーソナリティを推定した。

個人情報を不正に提供

Kogan教授はこれらの情報をCambridge Analyticaに提供したとされる。その当時、Facebookは利用者の許諾を得ると、第三者が個人情報を収集することを認めていた。しかし、収集した情報を他人に渡すことは禁じていた。ここが問題の核心部分で、Facebookの規定を逸脱し、Cambridge Analyticaは個人情報を不正に受け取った。Cambridge Analyticaはこれを否定しているが、英国政府はデータ不正使用の容疑で捜査を開始した。

個人情報はどう使われた

Cambridge Analyticaに渡された個人情報がどのように使われたかについては明らかになっていない。Psychographic Analysisを選挙戦に適用すると、Like Buttonが押された情報から、有権者のパーソナリティを把握できる。ひいては、有権者の政治的指向を把握でき、最適なキャンペーンを展開できる。

出典: Reuters

有権者の弱点を突く

この問題を告発した元社員Chris Wylie (上の写真、英国議会での公聴会) は、このモデルを米国大統領選挙にどう適用したかについて証言した。このモデルは有権者の精神的な弱点を洗い出すことを目的としていた。更に、この弱点を刺激するフェイクニュースをターゲティング送信することで、有権者を特定方向に向かわせ、トランプ候補への投票を促すとしている。ただ、Wylieは、モデルを運用するプロセスには関与しておらず、実際にどう活用されたかは分からないとも述べている。

効果を疑問視する声も

Psychographic Analysisは既にターゲティング広告で使われており、消費者のパーソナリティを把握し最適な広告メッセージが配信されている。Netflixは視聴者が好むであろう映画を推奨するためにこのモデルを使っている。一方、この手法が有権者にどれだけインパクトを与えるかについては疑問視する声が多い。有権者の心を動かすのは難しく、Cambridge Analyticaが大統領選挙に及ぼした影響は限定的であるとの見方が大勢を占めている。

Facebookの責任は重大

大統領選挙への影響のあるなしにかかわらず、Facebookは個人データ管理の責任を厳しく問われている。Facebookは個人情報保護対応を進めており、プロフィール設定方式を分かりやすくした。今までは、個人情報設定は20画面に分散していたが、これを1つの画面に集約し、情報管理を容易にした。また、Facebookは第三者機関が生成する解析データの提供を中止した。データ解析企業ExperianやAcxiomなどがオフラインデータを解析し、これを広告主に提供しているが、これを停止すると発表した。

真相究明

Cambridge Analyticaは米国大統領選挙だけでなく、英国Brexit国民投票で離脱派の解析ツールとしても使われた。多くの識者は同社の影響力を疑問視するが、国民世論がデータ解析で操作されているとの感触はぬぐい切れない。Cambridge Analyticaが不正にデータを受け取り、大統領選挙に影響したのか、真相解明は今後の捜査を待つことになる。

FacebookのBrain-Typing研究、脳から直接コンピュータに文字を入力

Facebookは脳の情報を出力する研究を進めている。これは「Brain-Typing」と呼ばれ、頭で思うだけで文字を出力する。今はデバイスを操作する時に音声で指示するが、この技術が完成すると声に出さなくても頭で思うだけで操作できる。究極のインターフェイスでデバイスと意思疎通ができ生活が劇的に変わる。

出典: Facebook  

ブレインインターフェイスを開発

Facebookは開発者会議「F8」でブレインインターフェイスを開発していることを発表し、このプロジェクトの存在を明らかにした (上の写真)。これはRegina Duganが主導するプロジェクトで、脳の情報を出力する技術や皮膚経由で情報を入力する技術を公開した。DuganはDARPA (アメリカ国防高等研究計画局) で長官を務め先進技術の開発に寄与してきた。その後、Googleに移りATAP (Advanced Technology and Projects、社内インキュベータ) 部門を創設した。ここでTango (拡張現実技術) やProject Ara (モジュール方式スマホ) が生まれた。

毎分100語の早さで出力する

ブレインインターフェイスには様々な方式があり多くの研究機関が取り組んでいる。医療分野ではデバイスを脳にインプラントし会話を実現する方式が研究されている。Facebookは一般消費者を対象にしており、非侵襲性 (Non-Invasive) のデバイスで脳の情報を出力する方式を目指す。頭で思ったことを毎分100語の早さで出力する性能を目標とする。これは一般にBrain-Typingと呼ばれ光学的な手法で実現する。研究チームは60人体制で、Optical Neuroimaging (脳のニューロンの構造を光学的に解明する技法) 研究者を中心に構成されている。

Optical Neuroimagingとは

Optical NeuroimagingとはLEDやレーザーを使い大脳皮質 (cerebral cortex) から発信されるシグナルを受信して解析する手法を指す。具体的には近赤外線を頭皮表面に照射し、その反射波を測定し脳機能をマッピングする。頭皮上に光源とセンサーをあてて、CTスキャンのように脳内構造を3Dで把握する。

脳内のヘモグロビン量を測定

これ以上の説明は無かったがOptical Neuroimagingは脳内のヘモグロビン (血液) の量を測定することでニューロンの活動量を把握する。ヘモグロビン (Oxy-HbとDeoxy-Hb) と脳の活動はニューロンの酸素消費量を通し相関関係があることが分かっている。近赤外線を頭皮表面に照射すると光は頭皮を通過し脳に届く。脳内のヘモグロビンがPhoton (光子) の束を吸収し、その反射波をセンサーで読み取るとニューロンの活動状態が分かる。明るい光源に手をかざすと血液が近赤外線を吸収し指が赤く見える原理を応用している。

現行技術からの大きな飛躍

Optical NeuroimagingをALSなど運動系に障害がある患者に適用し意思疎通を行う研究が進められている。最新の事例ではALS患者がYes/Noの意思表示ができたとの報告がある。この技法は医療分野での研究が先行している。Facebookはこの手法を消費者向けのインターフェイスとして利用する。Yes/Noのバイナリーなシグナルを読み取る技術から、毎分100語の早さで出力する技術にジャンプすることになる。このためにはニューロンの状態を毎秒数百回サンプリングする必要があるといわれ、極めて高度な技術を必要とする。

出典: Facebook

仮想現実や拡張現実などで利用する

Facebookはこの技術をタイピングだけでなく、メッセージを伝える手段として開発している。仮想現実や拡張現実などで利用することを想定している。例えば、スマートグラスを使った拡張現実では、利用者はデバイスに語り掛けるのではなく思うだけで情報を入力できる。スマートグラスがアイスクリームを認識し「ランニング距離を2マイル伸ばしますか?」と問いかけると (上の写真)、これに対して利用者は頭で思うだけで声を出さないで返答を入力できる。満員電車の中でも周りを気兼ねすることなくスマートグラスを操作できることになる。Facebookはこのシステムを数年のうちに実現するとしている。

多くの疑問が未回答のまま

Brain-Typingは理想のインターフェイスであるが、Duganの説明に対して医学界から疑問の声が上がっているのも事実。Optical Neuroimaging手法について具体的な説明はなく、多くの疑問が未回答のままとなっている。現在はデバイスを脳にインプラントする方式が主流であるが、それでも出力精度は40-50%に留まる。これに対して頭皮からシグナルを読み取る方式は精度が悪く、Facebookのブレークスルー技術は何なのか疑問の声が寄せられている。

Building 8

FacebookはMoonshotと呼ばれる先進技術を「Building 8」で開発している(下の写真)。これはGoogle Xに相当する先進技術研究所でコミュニケーションを促進するハードウェアデバイスの開発が進められている。Brain-Typingプロジェクトは2016年10月頃から始まり二年間の研究期間が与えられている。二年後に研究結果をレビューしプロジェクトを継続するかどうかが決まる。

出典: Facebook

人とマシンの関係が根本から変わる

消費者向け製品では頭皮から電気シグナル (Electroencephalography、脳波) を読み取り利用者の意図を把握する方式が中心となっている。大量のノイズの中から対象シグナルを検知するのが課題で、単純な操作に限定して使われている。多くの企業から製品が出荷され、ゲームやリラクゼーションなどで利用されている。Facebookの方式はヘモグロビン量からニューロンの活動を読み解くもので現行技術から大きな飛躍になる。これが本当に実現できれば恩恵は計り知れない。健常者と非健常者ともに人とマシンの関係が根本から変わる

Facebookで虚偽ニュースが増幅し大統領選挙が混乱、AIで記事の真偽を判定する試みが始まる

アメリカ大統領選挙では偽りのニュースが飛び交い、有権者が大きな影響を受けた。ニュースの題名は衝撃的なものが多く、記事は著者の主張が論理的に展開され疑問を挟む余地はない。偽のニュースはFacebookに表示され、口コミで広がり大きな社会問題となった。Obama大統領が名指しで問題点を指摘し、Facebookは虚偽ニュース対応に乗り出した。

出典: Snopes.com  

虚偽ニュースによりTrump氏が勝利した

Facebookが表示するニュースに虚偽情報が含まれていることは早くから問題となっていた。大統領選挙では虚偽ニュースによりTrump氏が勝利したとまで言われ、この件が一気に政治問題に発展した。FacebookはTrump氏を推す虚偽ニュースをNews Feedに掲載し、口コミでTrump支援者が増えたとされる。CEOのMark Zuckerbergはこれが勝敗に影響したという解釈を否定しているが、偽ニュースを抑止する対策をとることを表明した。

ローマ法王がTrump氏を大統領に推奨する

大統領選挙では数多くの虚偽ニュースが飛び交った。ニュースはセンセーショナルで人目を引くものが多い。その事例として、WTOE 5 Newsというサイトは「ローマ法王がTrump氏を大統領に推奨する」という偽りの記事を発信した。これに対し、ニュースを検証するサイトはこの記事は偽りと注意を喚起した (上の写真)。これに先立ち、「ローマ法王がClinton氏を大統領に推奨する」という記事も発信された。選挙が終わり、「ローマ法王は選挙結果に失望した」という記事も掲載された。

Clinton氏が米国国歌を見直すべきと提案

また、National Reportというサイトは「Clinton氏が米国国歌を見直すべきと提案した」という偽りの記事を掲載した (下の写真)。更に、Clinton氏はその理由を「歌詞が拳銃などによる暴力につながる」とし、「国歌は宗教と国家の分離原則に抵触する」と述べたとしている。

出典: National Report

虚偽であると判断するのは難しい

このニュースは事実ではなく虚偽の内容である。しかし、怪しいとは感じるものの、一読してこれらが虚偽であると判断するのは難しい。ニュースサイトの名前や外観やURLは本物のように見える。記事のタイトルからも不正を感じさせるものはない。記事を読み始めると、考え方に共感するところもあり、最後まで読んでしまう。ところどころ違和感を感じるが、記事が虚偽であることは見抜けない。むしろ、興味深い内容に惹かれる。

偽ニュースを発信するサイトとは

このNational Reportは名前から権威あるニュースサイトのように思える。同社はホームページで中立ニュースを発信するとうたっている。しかし、National Reportが掲載するニュースは事実ではなく、虚偽ニュースだけを発信する。この目的は魅力的な虚偽のニュースでページビューをあげ、サイトに掲載する広告で収入を得ることにある。ページビューが高いニュースは一件で1万ドルの広告収入があるとされる。但し、今ではGoogleなどが虚偽ニュースサイトへの広告掲示を停止し、National Reportサイトでの広告収入は激減した。

ソーシャルメディアが偽ニュースを増幅

National Reportは虚偽ニュースを発信してきたが、同社だけでは社会的な影響は限られている。しかし、Facebookなどソーシャルメディアに記事が表示され、賛同者の数が増え、記事へのリンクが転載されることで、この記事の出現回数が爆発的に増える。Facebookは人気記事をTrendingとして示し、ここに虚偽ニュースが掲載されると全国規模で広がる。このようにFacebookなどのソーシャル機能が悪用され、虚偽ニュースが世論を動かす力となった。

Trump陣営が虚偽のニュースを引用

大統領選挙ではTrump陣営が虚偽ニュースを引用してClinton候補を攻撃する場面もあった。Eric Trump氏は偽ニュースだとは思わず、記事の内容を根拠に論戦を展開した。ツイートで「Trump講演会で反対運動をする活動家はClinton陣営から3500ドル貰っている」という記事を引用した (下の写真)。しかし、このニュース記事は真実ではなかった。ツイートは削除されたが、そのコピーが今でも多くのサイトに掲載されている。選挙戦当事者も偽ニュースを見分けるのに時間がかかった。

出典: Eric Trump

Facebookの偽ニュース対策

Facebookは早くから偽ニュース (Hoaxes) への対策をとっている。2015年1月には会員が偽ニュース記事を報告できる仕組みを導入した。これはスパムメールを申告するように、News Feedに表示されたニュースが真実ではない場合にはその旨を申告できる。読者からの申告で偽ニュースがNews Feedに表示される回数が減らされる。クラウドソーシングの手法での対応策を始めた。

サイトに誘導する記事や偽記事を抑制

Facebookは2016年8月には、News Feedから「Clickbait」記事を削除する対策を打ち出した。Clickbaitとは意図的に内容を伏せてサイトに誘導する手法を指す。例えば記事の導入部分で「信じられないことに、昨夜レッドカーペットの上でセレブ同士が喧嘩になった。それは誰なのか。。。」と書くと、気になってリンクをクリックして続きを読む。これはサイトに誘導する常套手法であるがFacebook利用者にはたいへん不評。FacebookはClickbaitがNews Feedに出現する回数を抑制した。

出典: Celeb Style Weekly

Machine Learningの手法で偽ニュースを特定

Clickbaitには読者をミスリードする記事も含まれ、偽ニュースを抑制する対策も取っている。Clickbait記事対策ではアルゴリズムを開発し、検出プロセスを自動化した。Facebookはサイトに誘導する記事やミスリーディングな題名の事例を集めClickbaitのデータセットを作成した。これら事例を通常ニュースの題名と比較し、Clickbaitに特有なシグナルを特定した。Clickbaitを検出するアルゴリズムを開発し、これをMachine Learningの手法で教育した。アルゴリズムは学習を重ね検出精度を上げていく。これはスパムメールを検出する方式に似ており、News Feedから虚偽ニュースを排除できると期待されてきた。

大統領選挙では偽ニュースを防げなかった

このような対策をとっているにも拘わらず偽ニュースは増え続け、大統領選挙では有権者を混乱させる原因となった。Facebookが開発したアルゴリズムはニュースタイトルを基準に判定するので偽ニュースを見分ける精度が十分とは言えない。本格的に対応するにはタイトルに加え、本文に踏み込んだ判定が必要となる。

記事を虚偽と判定するのは人間でも難しい

前述の通り記事を虚偽と判定するのは人間でも難しい。明らかな偽りを判定するのは容易だが、記事の内容を把握し、事実関係の検証が求められる。(下の写真は明らかに虚偽ニュースと分かる事例。大統領選挙でTrump氏の勝利が決まった直後、「Obama大統領は大統領令を発令し選挙結果を検証する」という記事が発行された。)

出典: ABCNews.com.co

事実を検証する作業が求められる

多くのケースでニュース記事を読んだだけではそれが真実かどうかを判断するのが難しい。記事で述べられる主張を裏付ける事実を確認する作業が必要になる。主張の出典を探し事実関係を確認する。また、主張を裏付ける事実が確認できたとしても、記事の中で事実を誇張したり、拡大解釈するケースは少なくない。記事検証ではこれらのステップを踏み、内容が正しいかどうかの判定を下す。

真実を突き止めるには限界がある

記事検証では真偽を判定するのが目的であるが、判定できないケースも多々ある。Trump氏が大統領に選ばれたことに抗議して#NotMyPresidentというデモが全米各地で起こった。デモ参加者はClinton支持者で、Trump氏は我々の大統領ではないと抗議の意思を表示した。記事は「デモ参加者は投票所には行っておらず、Clinton氏に投票していない」と分析する (下の写真)。しかし、この事実関係は確認できず、この記事の真偽は判定できない。真実を突き止めるには限界があるのも事実。

出典: ZeroHedge

Facebook記事の真偽を判定するソフト

この問題に大学生たちが挑んでいる。Facebookに掲載される記事の真偽を判定する技法を開発した。大学生たちはAIを最大限に活用し、Facebook記事を解析するソフトウェア「FiB」を開発した。FiBはブラウザーのプラグインとして実装され、Facebook記事を読みその内容を判定する。記事が虚偽であると「Not Verified」と表示する。一方、真実であると「Verified」と表示する。(下の写真はNot Verifiedと判定された事例。「大麻ががん細胞を破壊する」という記事を解析し、これは虚偽であると判定した。)

AIクラウドを使って真偽を判断

FiBはAIを使って真偽を判断する。投稿された記事に掲載されている写真を認識し、それをテキストに変換する。また記事からはキーワードを抽出する。検索エンジンでこれらの出典を調べ、事実かどうかを確認する。更に、Twitter記事のスクリーンショットが掲載されている場合は、その出典をTwitterで検索する。Twitterスクリーンショットが偽でないことを確認する。

Facebookより先にソリューションを開発

学生たちは公開されているAIクラウドのAPIを最大限に活用してシステムを作った。具体的には、Microsoft Cognitive Services、Twitter Search API、Google Safe Browsing APIなどを使っている。記事判定の精度の検証はこれからであるが、世界最先端のAI技術を持つFacebookより先にソリューションを開発したことは特筆に値する。

出典: FiB Project

ファクトチェックサイトが注意を喚起

アルゴリズム開発とは別に、多くの団体が人手で記事の真偽を判定している。これらはファクトチェックサイトと呼ばれ、大統領選挙では有権者に偽ニュースに誘導されないよう注意を喚起した。その代表がFactCheck.orgという独立の非営利団体 (下の写真)。University of Pennsylvaniaの研究機関として活動を開始し、政治問題に関し政治家の主張の真偽を詳細に検証する。また、読者に偽ニュースを見分ける方法などを指導する。

(下の写真はFactCheck.orgが政治家の主張を分析した事例。下院議長Paul Ryanは米国医療制度Medicareはオバマケアーにより破たんしたと主張する。しかし、FactCheck.orgはこの主張は間違いと結論付けた。)

人気のファクトチェックサイト

人気のファクトチェックサイトはSnopes.com (先頭の写真) で1995年に設立された。このサイトはメールやフォーラムを対象に記事の真偽を判定する目的で設立された。大統領選挙では政治ニュースに焦点を当て、問題点を指摘し有権者に注意を喚起した。分かりやすい表現で多くの人に利用されている。また政治問題だけでなく、ビジネス、エンターテイメント、健康、宗教、テクノロジーなど幅広い分野をカバーする。

Fake Newsは後を絶たない

大統領選挙が終了した後も偽ニュースは後を絶たない。民間人に贈られる最高位の勲章「Presidential Medal of Freedom」授与式が11月22日、ホワイトハウスで執り行われた。映画俳優Robert De NiroらにObama大統領からメダルが授与された。一方、Clint EastwoodのTwitterにメダル授与を拒否したとのコメントが掲載された。その理由としてObama氏は私の大統領ではないと述べている。これは真実ではなく、Eastwoodになりすました人物が発信したもので、ソーシャルメディアから偽りのニュースが流れ続けている。

出典: FactCheck.org

Facebookは米国最大のメディア企業

ソーシャルメディアが生活に浸透し、ニュースの読み方が大きく変わってきた。Pew Researchによると米国の成人の62%がソーシャルメディアでニュースを読む。これをメディア別に分類すると、米国の成人の44%がFacebookでニュースを読んでいる。YouTubeやTwitterがこれに続くが、Facebookがニュース配信メディアとしてトップの位置にいる。

Facebookの責任論

ZuckerbergはFacebookはメディア企業ではなく、記事の真偽を自社で判定すべきでないとの立場をとってきた。記事の真偽の判断は読者に委ねてきた。しかし、Facebookが米国最大のニュース配信企業となっている事実を勘案すると、掲示するニュースの品質についてFacebookが責任を負うべきという議論が主流となっている。同様に、GoogleやTwitterも対策を求められている。Googleは既に、偽ニュースサイトへの広告配信を停止した。

Facebookが対策に乗り出す

偽ニュースが国民的な問題となり、Facebook社内で問題意識を持つ社員が集い、自主的に問題解決に向け動き始めたとも伝えられる。Zuckerbergもポジションを変え、対策に乗り出すと表明した。今頃はAIを駆使したソリューションが開発されているのかもしれない。メールからスパムがフィルターされたように、News Feedから偽ニュースが消えることを期待する。