カテゴリー別アーカイブ: 人工知能

GoogleはAIの品質保証書「Model Cards」を公開、アルゴリズムの機能と性能と限界を明確にする

社会にAIが幅広く浸透し日々の生活で利用されているが、消費者はAIの機能を理解しないまま使っている。AIは万全ではなく、顔認識で誤認したり、クレジットカード審査で女性が不利になることが報告されている。GoogleはAIの概要を明示する必要があるとして、アルゴリズムの中身を消費者に開示するシステムを開発した。

出典: Google

AIの品質証明書

これは「Model Cards」と呼ばれ、ここにアルゴリズムの機能や性能や限界が記載される。Model CardsはAIの品質保証書とも解釈でき、ここにAIの成績と欠点が書かれ、これを利用者や開発者に公開する。消費者はこれを読み、アルゴリズムの機能と限界を知り、AIを安全に利用する。

犬の種別を見分ける

例えば、ある企業が犬の種別を見分けるAIを開発し、それを販売したとする。Model CardsにはAIに関する基本情報が記載される(上のグラフィックス、イメージ)。これがAIの使用説明書となり、AIの特性を理解し適切に利用する。犬のどんな写真を使うとAIが正しく判定できるのかが分かる。大写しの写真や小さな写真ではAIが正しく判定できないことも理解できる。

Model Card:機能概要の説明

Googleは実際に、顔認識(Face Detection) AIのModel Cardsを公開した(下の写真)。ここには基本機能(Model Description)として、AIの概要が記述される(左側)。AIは認識した顔を四角の枠で囲って示すとの説明がある。また、顔の中で最大34のポイント(Landmark)を認識できるとしている。更に、ニューラルネットワークは「MobileNet」という種類で、軽量のイメージ判定AIであることが分かる。

出典: Google

Model Card:アルゴリズムの限界

Model CardsはAI機能の限界についても記載している。顔の向き(Facial Orientation)の限界を表示し、これを超えると検知できないとしている。また、顔の大きさ(Face Size)が小さすぎると検知できないとしている。具体的には、瞳孔間の距離(Pupillary distance)が10ピクセル以下だと検知できない。他に、暗い場所、顔が隠れている場合、顔が動いている場合は検知できないと注意を喚起している。

Model Card:精度の説明

Model CardsはAIの判定精度についても説明している。精度は「Precision-Recall Values」をプロットしたグラフで示される(上の写真右側)。また、グラフはベンチマークで使用したデータ種類ごとに示され、ここでは三種類のデータセットを使った結果が示されている。Precisionとは顔と認識したケースの精度で、Recallとは写真の顔をどれだけ漏れなく認識できたかを示す指標となる。つまり、Recallを見ると特定グループ(肌の色や性別の集団)の精度が分かり、これにより性別や人種によるバイアスがあるかどうかを検証できる。

出典: Margaret Mitchell et al.

業界で規格化を目指す

医薬品を買うと薬の効能や副作用や注意点が記載された説明書が添付されている。消費者はこれを読んで薬を安全に服用する。同様に、AIを使うときも消費者は説明書(上の写真、笑顔を検知するAIの説明書の事例)を読んで安全に利用する必要がある。これはGoogleが開発したAIだけでなく、他社が開発したAIにも適用することが求められる。このため、GoogleはModel Cardsを第一歩として、業界や開発者団体と共同で、この方式を規格化し普及させることを計画している。アルゴリズムの説明責任が求められる中、この活動がどこに向かうのか注視していく必要がある。

AIによる採用面接は禁止される!?アルゴリズムは男性を採用し女性を落とす

米国で、AIで人事面接を実施する流れが広がっている。これはロボット面接官(Robot Recruiters)とも呼ばれ、AIが応募者と面接し、その可否を判断する。採用プロセスが自動化され大きなコスト削減になるがAIの問題点が指摘されている。AIの評価は男性に寛大で女性に厳しい。このため、AIによる人事採用を禁止すべきとの声が高まっている。

出典: Workable

Amazonのケース

Amazonはこの問題を重く受け止め、既にAIによる人事評価を中止した。AmazonはAIで応募者の履歴書を解析し、優秀な人材を発掘してきた。膨大な数の応募者を人間に代わりAIが評価し、採用プロセスを自動化した。このシステムは2014年から試験運用が始まり、AIが応募者の履歴書を解析し、採用すべき人物を特定してきた。しかし実際に運用すると、AIが推奨する人物は男性に偏り、女性に不利な結果となっていることが判明し、Amazonは2018年にこのシステムの運用を中止した。

問題の原因

Amazonは判定がバイアスする原因は教育データにあると特定した。Amazonは職種や勤務場所に応じて500のモデルを生成し、履歴書の中で使われる5万の単語でアルゴリズムを教育した。その結果、アルゴリズムは応募者のスキルを判定するのではなく、応募者が自己紹介で使う動詞に強く反応することが分かった。AIは「executed」や「captured」などの単語に反応し、これらを使っている応募者を推奨する。しかし、これらの単語は男性が使う傾向が強く、その結果、アルゴリズムは男性を採用することとなった。

HireVueのケース

HireVueはSouth Jordan(ユタ州)に拠点を置くベンチャー企業で”ロボット面接官”を開発している。応募者は自身のパソコンから専用サイトにアクセスしAIの面接を受ける。これは「Video Interviewing」(下の写真)というシステムでAIと対話しながら面接が進む。高度なAIが応募者を包括的に評価するが、アルゴリズムの判定基準が不透明で、市場ではロボット面接官への不信感が募っている。

出典: HireVue

判定プロセス

応募者は画面に表示される質問に回答する形でAI人事面接が進む。「あなたの技能や経験がこの職種に適している理由を述べなさい」などの質問が出され、応募者はこれらの質問に音声で答えていく。面接の様子はビデオで撮影され、AIがこれを解析して応募者を評価する。AIは言葉の意味だけでなく、声のトーン、使われた単語の種類、顔の動きなどを評価する。評価結果は「willingness to learn」、「personal stability」、「problem solving」など六項目にわけて示される。更に、AIは評価結果を他の応募者と比較し、採用判断を「Yes」、「No」、「Maybe」で示す。AIが人間の面接官のように、応募者の人間的な側面も考慮して採用の可否を決める。

大学の対応

企業でロボット面接官の導入が進み、面接を受ける側はその対策を進めている。大学は学生にAI面接の受け方を指導してる。Brigham Young UniversityはHireVueで出題される質問を把握しており、学生はこれらの質問に回答する面接リハーサルを行い、指導教官からアドバイスを受ける。University of Marylandはロボット面接官に好印象を与えるコツを教育している。それによると、言葉の使い方の他に、身振り、笑顔、うなずきが重要と指導している。(下の写真、AIに好印象を与える履歴書の書き方)

AI採用の問題点

AI研究者や人権保護団体はAIを使った採用を中止すべきと主張している。人権保護団体「Electronic Privacy Information Center(EPIC)」は連邦政府にAI採用を中止すべきとの提言を行った。EPICは、特に、HireVueの手法が深刻な問題を含んでいると指摘する。具体的には、アルゴリズムがバイアスしており、応募者を公平に評価できないとしている。更に、アルゴリズムのロジックや評価結果が公開されておらず、評価精度を検証できない点も問題としている。特に、ビデオ撮影された顔のイメージなど生体情報がどう使われるのかを明確にするよう求めている。

出典: Entrepreneur

AI人事採用を規制する動き

EPICはAI人事採用は法令に抵触するとして、連邦取引委員会(Federal Trade Commission)に調査を始めるよう提案した。FTCは不公正な商取引を禁じており、ロボット面接官はこれに該当する可能性がある。FTCは捜査に着手していないが、米国でロボット面接官の利用を規制する動きが顕著になってきた。

Apple Cardは女性に不利!AIが女性の信用度を低く査定、カード発行銀行は法令違反の疑いで捜査を受ける

Apple Cardはお洒落なデザインのクレジットカードで利用が広がっている。しかし、Apple Cardは女性の信用度を低く査定するという問題が発覚した。クレジットカードはGoldman Sachsが発行しており(下の写真)、同行が開発したAIに問題があるとみられている。AIが性別により評価を変えることは法令に抵触する疑いがあり、司法当局は捜査に乗り出した。

出典: Apple

Apple Cardの問題点

この問題は著名人らがツイートしたことで明らかになった。David Heinemeier Hansson(Ruby on Railsの開発者)はツイートでこの問題を指摘した。 Hansson夫妻はどちらもApple Cardを持っているが、利用限度枠(Credit Limit)が大きく異なる。利用限度枠とはクレジットの上限で、同氏は妻の20倍となっている。税金は夫妻合算で納税申告をしており、財政面では同じ条件であるが、奥様の信用度が低く評価されている。同様に、Steve Wozniak(Apple共同創業者)も奥様に比べ10倍の利用限度枠があるとツイートしている。

信用度の査定

利用限度枠はApple Cardを申し込むときに決定される。カードを申し込むとき、必要事項を記入し、Goldman Sachsがそれらを審査して可否を決定する。その際に、住所氏名、ソーシャルセキュリティー番号(マイナンバー)、年収などを記入し(下の写真左側)、それらはアルゴリズムで解析され、信用度が査定される。申し込みが受け付けられるとカードが発行されるが、その時に利用限度枠が決まる(下の写真右側、筆者のケースでは10,000ドル)。

出典: VentureClef  

司法当局が捜査に乗り出す

有名人が相次いでツイートしたことからApple Cardの問題が社会の関心事となり、ニューヨーク州の金融機関を監督するNew York State Department of Financial Services(DFS)が見解を発表した。ニューヨーク州は与信審査のアルゴリズムが性別や人種などで不公平であることを禁止している。このため、法令に抵触している疑いがあり、DFSはGoldman Sachsの捜査を開始するとしている。因みに、DFSは銀行や保険会社の違法行為を監視する機関で、今までにBitcoinにかかる不正な事業を摘発している。

米国連邦政府の法令

米国では法令「Equal Credit Opportunity Act (ECOA)」により、誰でも公平にローンを受ける権利を保障している。これは1974年に施行されたもので、その当時、女性はローンを申し込んでも断られるケースが多く、男女差別を無くすことを目的に制定された。1976年には、性別だけでなく、人種や国籍や信条などが加わり、今に至っている。ローン審査のアルゴリズムはこの法令に順守することが求められる。

Goldman Sachsの見解

これらの動きに対してGoldman Sachsは見解を表明した。それによると、Goldman Sachsはカード申し込み時に信用審査を実施するが、男性と女性に分けて行うのではなく、男女同じ基準で評価している。申込者の年収やクレジットスコアや負債などをベースに信用度が査定され、利用限度枠が決まる。審査で性別は考慮しないため、女性に不利になることはないと説明している。

出典: Apple

原因は教育データの不足

Goldman Sachsが見解を発表したが、アルゴリズムの構造などには触れておらず、問題の本質は不明のままである。同行からの検証結果を待つしかないが、市場ではアルゴリズム教育に問題があるとの考えが有力である。通常、信用評価アルゴリズムは過去のクレジットカード応募者のデータを使って教育される。データの多くは男性で、女性のデータは少なく、アルゴリズムは女性の信用度を正しく評価できなかったとみられている。

アルゴリズムが女性を識別した?

これとは別の推測もある。Goldman Sachsはアルゴリズムは男性と女性を特定しないで評価したと述べており、教育データは男性と女性に分かれておらず、アルゴリズムは性別を把握できない。しかし、アルゴリズムはデータから、男性と女性を特定する情報を学び、応募者の性別を把握していたとの解釈もある。その結果、過去のデータから、女性の信用度を低く判定した。つまり、開発者の意図とは異なり、アルゴリズムが独自に男女を識別し、男性に有利なデータに基づき、女性の信用度を低く評価したことになる。ただ、これらは推測であり、真相解明はGoldman Sachsの検証結果を待つしかない。

AIの限界

Goldman Sachsは、勿論、意図的に女性の利用限度枠を下げたのではなく、アルゴリズムが開発者の意図とは異なる挙動を示し、このように判定した可能性が高い。多くの金融機関でAIによる信用度審査が実施されているが、そのアルゴリズムはブラックボックスで、人間がそのロジックを理解できないという問題が改めて示された。AI開発ではアルゴリズムの判定メカニズムを可視化する技術の開発が急がれる。

Deepfakesが急速に進化、米国は完璧なフェイクビデオの登場に警戒感を強める

Deepfakesとは、AIを使って人物のイメージを生成する技術を指し、被写体の人物の顔を別人の顔に置き換える機能を持つ。このためDeepfakesは「Face Swapping」とも呼ばれ、顔をスワップするために使われる。映画や広告で往年のスターを再現する特撮として使われるが、Deepfakesの殆どがポルノで使われ多くの女優が被害にあっている。また、米国では大統領選挙がフェイクイメージで混乱すると恐れられている。Deepfakesの技術進化は速く、ネット上には高度なフェイクビデオが掲載され、何が真実なのか判別がつかない社会に向かっている。

出典: The Dali Museum

ポルノ映画

Deepfakesで生成されたフェイクビデオの数が急増しているが、その96%がポルノ映画で使われてるという報告もある。Deepfakesはビデオで登場するポルノ女優の顔を有名女優や歌手の顔で置き換える。女優や歌手は顔が無断で使われ、イメージが傷つき、Deepfakesの最大の被害者となってる。被害を受けている女優や歌手は米国だけでなく英国や韓国など世界に広がっている。

大統領選挙

2020年は米国大統領選挙の年で、候補者を攻撃するためにDeepfakesが使われると懸念される。既に、民主党大統領候補エリザベス・ウォーレン(Elizabeth Warren)のフェイクビデオが登場した(下の写真右側)。テレビ女優ケイト・マッキノン(Kate McKinnon)の顔(下の写真左側)がウォーレンの顔(右側)で置き換えられた。これは大学が研究目的で生成したものであるが、大統領選挙で先頭を走るウォーレンはこれから様々な攻撃を受けることが予測される。特に、米国政府はロシアや中国がDeepfakesを使って世論を操作することを警戒している。

出典: Stephen McNally

テレビ難組

人気トークショーに出演したビル・ヘイダー(Bill Hader、下の写真右側)の顔がアル・パチーノ(Al Pacino)の顔で置き換えられた(下の写真左側)。このビデオはCtrl Shift Faceにより生成されたもので、番組でヘイダーが演じたシーンをDeepfakesで顔を置き換えた。多くのDeepfakesを見たがこのビデオが一番完成度が高い。目の前で顔が陽気なヘイダーからストイックなパチーノに移り変わり、見ていて気味悪さを感じる。

出典: Ctrl Shift Face / Wikipedia

映画スター

映画会社はAIを使って若き日のスターの姿を蘇らせ、亡くなった俳優が最新の映画に登場する。映画「ローグ・ワン(Rogue One: A Star Wars Story)」で、ピーター・カッシング(Peter Cushing)が演じる軍人グランド・モフ・ターキン(Grand Moff Tarkin)の姿がAIで再現された(下の写真右側)。これは特殊効果制作会社Industrial Light & Magicが生成したもので、俳優(Guy Henry)の表情や演技をヘッドカメラなどで捉え、これをAIでPeter Cushingに変換した。高精度な光学機器と大規模な編集システムが使われ、往年のスター(下の写真左側、オリジナルの映画)が完全な形で蘇った。一方、亡くなった俳優を高度なAIで再生することについては意見が分かれる。本人の了解なくスクリーンで演技をさせることは倫理的に問題である、という意見も少なくない。

出典: Lucasfilm

美術館

フロリダ州のダリ美術館「The Dali Museum」はDeepfakesを使って作家ダリを蘇らせた(先頭の写真)。機知に富むダリはビデオ「Dalí Lives」に登場し、「死んではいなかった」と語る。これは広告会社GS&Pにより制作されたもので、過去に撮影された6000枚のフレームを使ってこのビデオが作られた。ダリは観客の言葉に応じて様々な動きをするが、これら異なるシーンはDeepfakesを使って生成された。最後に、ダリは観客に「一緒に自撮りをしませんか」と尋ね、撮影した写真を示してビデオが終わる。

スマホアプリ

スマホアプリ「Zao」を使うと誰でも簡単に映画スターになれる。Zaoは中国企業が開発したもので、Deepfakesのモバイル版となり、映画スターの顔を自撮り写真で置き換える。例えば人気テレビドラマ「ゲーム・オブ・スローンズ(Game of Thrones)」を選ぶと、ジョン・スノー(Jon Snow)の顔(下の写真左側)を自分の顔で置き換えることができる(下の写真右側)。ハンサムだが少し影があるスノーに代わって自分が映画の中で演技するフェイクビデオができる。このアプリが絶大な人気を博している理由は、少ない数の写真でリアルなフェイクビデオができことにある。Zaoの事例はDeepfakesが急速に進化している確かな証拠となる。

出典: Newsbeezer

カリフォルニア州の法令

このようにDeepfakesは急速に進化しており、来年の大統領選挙を前に、全米で危機感が広がっている。カリフォルニア州は2019年10月、選挙に関連してDeepfakesを使うことを禁止する法令を制定した。この法令は選挙に限定して適用され、投票日まで60日以内に、候補者のフェイクイメージやフェイクボイスを配布することが禁じられる。ただし、報道各社に対しては適用が除外され、また、風刺や娯楽を目的としたDeepfakesも対象外となる。Deepfakesを生み出しているカリフォルニア州は技術の悪用に対し厳しく対処する姿勢を示している。

米国連邦政府の法案

米国連邦議会もDeepfakesを規制する法案の制定を進めている。これは「DEEPFAKES Accountability Act」と呼ばれ、下院議員Yvette Clarkeにより提案された。この法案はソーシャルメディア企業にDeepfakesを検知する技術の開発を義務付けるもので、また、悪意あるDeepfakesをウェブサイトに掲載することを禁じる。2016年の大統領選挙で有権者はフェイクニュースで混乱し、米国政府はその対応が後手に回った。2020年はフェイクビデオが世論をかく乱するとして対応を進めている。

フェイクビデオを検知するAI

Deepfakesの生成ではGoogleのTensorFlowが使われ、生成されたフェイクビデオはFacebookのソーシャルネットワークで拡散する。GoogleとFacebookは間接的であるがDeepfakes開発に関与している。このため、両社はDeepfakesを検知する技術の開発を進めている。Deepfakes検知技法の研究は大学などが進めているが、AIを使ってフェイクビデオを特定する方式が主流になっている。このため、AIを教育するために大量のフェイクビデオが必要となる。GoogleとFacebookはこの教育データを生成することで検知技術開発に寄与している。高度な検知技術が登場しているがDeepfakesの技術進化は速く、半年から一年以内に完璧なDeepfakesが登場すると懸念されている。

民間企業が顔認識技術を乱用、米国社会でAIへの不信感が広がる

サンフランシスコやオークランドで顔認識技術を規制する法令が相次いで成立し、警察が犯罪捜査でこの技術を使うことが禁止され、この流れが全米に広がっている。一方、米国市民は警察ではなく民間企業が顔認識技術を使うことを懸念している。民間企業が顔認識技術を乱用するケースが増えており、米国社会でAIへの不信感が広がっている。

出典: John Kim

世論調査

調査会社Pew Researchによると、米国市民の56%は警察が顔認識技術を使うことを容認していることが分かった。特に、警察がテロ対策など治安維持のため公共の場で顔認識技術を使うことに対しては59%の人が賛成している。これに対し、民間企業が顔認識技術を使うことに対しては36%の人が容認している。米国の消費者は顔認識技術活用について警察ではなく民間企業を信用していないという事実が明らかになった。

コンサート会場

こうした世論の背後には民間企業が顔認識技術を乱用している事実がある。人気歌手Taylor Swiftのセキュリティチームはコンサートツアー「Reputation Stadium Tour」で観客を撮影し、顔認識技術を使い、特定の人物を把握していたことが明らかになった。観客の中からストーカーを特定するために顔認識技術が使われ、Swiftが被害にあうのを未然に防止するための措置であった。また、Rose Bowlでのコンサートにおいても(上の写真)、キオスクに設置されたカメラでファンを撮影しストーカーを特定した。これらの措置は観客に通知されておらず、ファンの中にはこの行為をプライバシー侵害と捉える人も少なくなかった。

イベント入場システム

イベントチケット販売会社「Ticketmaster」は顔認証技術を使ったイベント入場システムを開発している。同社は「Ticketmaster Presence」というデジタルチケットを提供しており、利用者はスマホにチケットを格納し、会場ゲートでスマホをリーダーにかざすだけで入場できる(下の写真)。格納したチケットから人間には聞こえない音が発せられ、これをマイクで読み取り本人を確認する仕組みとなる。

出典: Ticketmaster

顔パスで入場

Ticketmasterは次期システムとして顔認証技術に注目している。チケット購入者はスマホを使う必要はなく顔パスで会場に入場できる。事前に顔写真を自撮りしこれをTicketmasterに登録しておくと、会場ゲートではカメラで撮影した顔写真とこれを比較することで顔認証が実行される。手ぶらで入場できるため便利な仕組みであるが、ファンやアーティストから反対の声が上がっている。顔の形状という生体情報が採取されることが懸念の原因で、Ticketmasterがこれら生体情報をどう管理するのかが問われている。また、警察当局からこれら生体情報の提供を求められた際、Ticketmasterは拒み切れるのかについても疑問視されている。

アパートのセキュリティ

ニューヨークの低所得者向けアパート「The Atlantic Plaza Towers」(下の写真)に顔認証システムが導入される計画が明らかになり、入居者が一斉に反対している。このアパートは二重のセキュリティがしかれ、ビルに入るときと部屋に入るときに二種類のキー(Key Fob)を使う。このうち、ビルに入るキーを顔認証システムに置き換え、ビル入り口で専用デバイスにより顔認証を受ける仕組みとなる。しかし、アパートの住人はキーを顔認証技術に置き換えることに反対し、意見書を管理会社に提出した。住民は顔データを使って監視されることに対し強い懸念を示している。住人の多くは黒人で、アパート管理会社は黒人の住人を監視し、白人や他の人種に置き換えるためと疑っている。顔認証技術を使って人種選別が行われることを恐れている。

出典: CityRealty

コンビニの入店管理

コンビニなどの小売店舗が顔認証技術を導入する動きが目立ってきた。セキュリティを強化するのが目的で、店舗入り口にカメラを設置し、顔認証技術で顧客を確認する(下の写真)。問題がなければ入口のロックが開錠され顧客は店内に入ることができる。しかし、犯罪者を特定すると入口のロックは開錠されず、店員にアラートが発信される。万引き常習犯や犯罪者を店舗内に入れないためのシステムで、ポートランドのコンビニ「Jackson Store」などが採用している。しかし、消費者からは顔認証技術の乱用であるとの声が上がっている。消費者は入店するために顔データが採取され、犯罪者データセットと付き合わされる。この方式はプライバシーの侵害で法的な規制を求める声が多い。

出典: Blue Line Technology

妥当性について意見が分かれる

民間企業が顔認証技術を使いセキュリティを強化しているが、それらが妥当かどうかについては意見が分かれている。Taylor SwiftやTicketmasterのケースでは安全性や利便性を勘案すると容認できるとの意見もあるが、著名コンサートイベント「Austin City Limit」などは会場で顔認識技術の使用を禁止すべきとしている。アパート入室管理で顔認証技術を使うことは違法ではないが、このケースでも規制を求める声が高まっている。

民間企業向けの規制

一方、コンビニに入店するために顔認証を受けることは一線を超えているとして、市民が強く反対している。民間企業のケースでは顔認証技術を制限する法令はなく、各社の自主規制に任されている。このため、技術の乱用と思われるケースも少なくなく、統一したルール作りが求められている。ポートランド市などが規制案を検討しており、警察の次は民間企業向けの顔認証技術運用ルールが審議されている。