カテゴリー別アーカイブ: 人工知能

顔認識AIの危険性が暴露、我々の顔写真が全米の警察で使われている!!(続々報)

顔認識AIを開発している新興企業Clearviewは、1000億枚の顔写真を収集する計画であることが明らかになった。写真は顔認識AIのデータベースに格納され、被験者を特定するためのインデックスとして使われる。世界の人口は約79億人で、一人につき12枚の写真が収集される勘定になる。このAIを使うと、世界の全ての人物の身元を特定することができる。

出典: Clearview

顔認識AIの開発

このAIを開発しているのはClearviewという新興企業で、世界最大規模の顔データベースの構築を計画している。投資家向けの資料がネットに流出したことで明らかになった。この資料によると、Clearviewは、現在、100億枚の顔写真を格納したデータベースを運営している。これを、1000億枚に拡充するために、資金の調達を進めている。

データベースの規模と判定精度

この規模のデータベースを使うと、AIは顔写真から、世界の殆どの人物の身元を正確に特定できる。具体的には、世界の人口の98%を、99.5%の精度で判定することができる。現在、Clearviewは100億枚の顔写真を格納したデータベースを運用しており、カバー範囲は75%となる。1000億枚の顔写真を使うと、世界の殆どの人を特定できる顔認識AIが生まれる。

利用目的

Clearviewは高精度な顔認識AIを開発し、米国政府を中心に、治安維持を目的に使われている。Clearviewの顔認識精度は、他の製品に比べひときわ高く、犯罪捜査で顔写真から容疑者の身元を特定するために使われる。昨年の米国連邦議会襲撃事件では、900超の顔写真をClearviewで解析し、350人の身元を特定することができた。このシステムは、FBI(連邦捜査局)や国土安全保障省などで使われている。

出典: Clearview

ベンチマーク結果

Clearviewは世界でトップレベルの性能を持っている。米国では、NIST(国立標準技術研究所)が顔認識AIのベンチマーク結果を公開しており、世界のベンダーの判定精度を知ることができる。これによると、中国Sensetimeがトップで、Clearviewは二位の判定精度となる。しかし、Clearviewは、Sensetimeより大きなデータベースを持ち、実効性能で上回るとしている。因みに、第三位はロシアVisionLabsで四位もロシアNTechLabとなる。

データベースの規模

世界でトップレベルの判定精度を持つClearviewであるが、その開発手法が社会問題となっている。AIが被疑者の写真から本人の身元を特定するためには、解析した写真と同一の人物を、データベースから見つけ出す。このため、データベースの規模が大きいほど、マッチングの確度が上がる。

データ収集の手法

Clearviewは世界のウェブから顔写真を収集する手法でデータベースを開発してきた。Facebookなどソーシャルネットワークに掲載されている顔写真を、本人の許可なくダウンロードし、これをデータベースに格納する。これは、スクレ―ピングという手法で、個人のプライバシーを侵害するとして、米国社会で問題視されている。実際に、全米各地で集団訴訟が起こり、Clearviewの手法は法廷で問われることになる。

ビジネスモデル

Clearviewの顔認識AIは、治安当局による犯罪捜査で使われている。Clearviewは、データベースの規模を10倍に拡大するとともに、顔認識AIの新しいビジネスモデルを計画している。対象を政府官庁から企業に拡大し、顔認識AIで、セキュリティや顧客サービスなどのソリューションを開発する。特に、金融機関やギグ・エコノミー(Gig Economy)向けを重点分野とし、事業開発を進める。

出典: Clearview

金融機関向けソリューション

Clearviewは顔認識AIを金融機関向けに提供することを計画している。これは、マネーロンダリングを検知するためのソリューションで、顔認識AIで利用者が犯罪者リストに登録されているかどうかを検知する。これは「One-to-Many Analysis」と呼ばれる手法で、利用者の顔写真でデータベースを検索し、身元を特定する。偽名を使った犯罪行為を検知できる。

ギグ・エコノミー向けソリューション

Clearviewはギグ・エコノミー向け顔認識AIに対する需要が大きくなると予想している。ギグ・エコノミーとは、ネットを通じた雇用制度で、契約社員として単発で働く方式を指す。Uberなどのライドシェアがギグ・エコノミーの代表となる。企業側はギグ・ワーカーを採用する際に、顔写真を顔認識AIで解析し、過去の履歴を確認する。この他に、Walmartなど小売店舗は、万引き防止のために、顔認識AIで容疑者の身元を特定するなどの活用法が検討されている。

出典: Clearview

治安維持かプライバシー保護か

米国ではサンフランシスコなど主要都市が顔認識技術の使用を禁止したが、連邦政府レベルではこれを規制する法令は無い。顔認識技術の利用について、統一したガイドラインは無く、運用の可否は各政府機関に任されている。顔認識技術を提供するAmazon、IBM、Microsoft、Googleは、無用の混乱に巻き込まれるのを恐れ、自主的にビジネスを停止している。Clearviewは、独自の解釈で、顔認識AIを提供する方針を貫いている。高精度な顔認識AIが犯罪捜査に寄与し、社会の治安が保たれていることは事実である。一方、Clearviewは、個人の顔写真を無断で使っており、これがプライバシー侵害に該当するのか、法廷で審理が進んでいる。

AIに口説かれると落ちる!?アルゴリズムで造られる音声は人間より豊かな表現力を持ち聞き手に感動を与える

Apple Siriが急に色あせてきた。AIにより生成されるボイスの品質が進化し、今では人間の表現力を上回る。AIで生成される音声は「Synthetic Voice」と呼ばれ、人間のように流暢な喋りができるだけでなく、多彩な感情を表現できる。アニメやゲームの中でアバターが喋る言葉はAIで合成され、人間のように感情がこもった会話が交わされる。

出典: Sonantic

感情豊かなAIボイス

多くの企業がAIボイスを開発しているが、英国に拠点を置く新興企業Sonanticは、感情豊かな合成音声を開発している。生成された音声は人間のものと区別がつかないだけでなく、声優のように、感情に富んだ会話ができる。AIボイスと言えば、Apple SiriやAmazon Alexaが普及しているが、声はモノトーンで機械的な会話となる。新興企業から新世代のAIボイスが登場し、Google Assistantなどの魅力が色あせてきた。

デモビデオ

Sonanticが開発するAIボイスは聞き手を会話に引き込む魅力を持っている。Sonanticはデモビデオを公開しAIボイスの進化をアピールしている(https://www.youtube.com/watch?v=gS1m_TIxEW0)。ビデオで、女性が視聴者に語り掛けるが、これらはAIにより生成されたもので、言葉の端々に微妙な感情表現が窺える。また、言葉ではない、笑いや息遣いが混じり、人間らしさがひときわ際立つ。

微妙な感情表現

微妙な感情表現は「Subtle Emotions」と呼ばれ、人間らしさを演出する技術となる。その一つが、男女関係における駆け引きで、相手の気を引こうとして媚びた感情を表現する。現実社会の会話でも、これは高度なテクニックになるが、AIボイスはこれをマスターし、なまめかしく魅力的な声で男性を誘惑する。また、目立たないようにする控えめな表現や、相手の好奇心をくすぐる表現もできるようになった。

言葉にならない表現

AIボイスを人間らしいと感じるのは、言葉以外の発声が混じるためである。これらは、「Non-Speech Sounds」といわれ、息遣いや、咳払いや、笑いなどを指す。また、「あー」とか「えー」など、無駄な発声もこの区分となる。人間は、スピーチするときには、これらの口癖を矯正するように教えられるが、AIボイスはあえてこれらを取り込み、人間臭さを演出する。(下の写真、発声の最後に咳ばらいを挿入する操作。)

出典: Sonantic

AIボイスの生成方法

AIボイスはダッシュボードでインタラクティブに生成する(下の写真)。アバターが発声するテキストを入力し、それに感情を付加するプロセスとなる。例えば、「The enemy fleet is attacking」というテキストを入力すると、音声が合成される。その際に、シーンに応じて、言葉に感情を与える。ここでは、「怒り」、「恐怖」、「幸せ」、「悲しみ」、「絶叫」などの要素を注入できる。また、声のピッチやタイミングなどを設定できる。

出典: Sonantic

ゲームで使われている

ゲーム開発会社Obsidianはアバターが喋る言葉をSonanticで合成している(下の写真)。今までは、声優がシーンに合わせて音声を吹き込んでいたが、今では、Sonanticの技術を使っている。AIボイスは声優のレベルに達し、人間がマニュアルで声を吹き込む必要がなくなった。また、AIボイスはゲーム開発の進行に応じて、シーンの変更があれば、何度も作り直すことができ、コンテンツ開発が効率化された。

出典: Obsidian

ニューラルネットワーク

Sonanticはニューラルネットワークを人間の声で教育し、AIボイスを生成する手法を取る。人間らしいAIボイスを生成するためには、教育データの品質がカギとなる。このため、声優に様々な感情を含む声を録音してもらい(下の写真)、それを教育データとして使った。しかし、「Non-Speech Sounds」については、この方法では高品質なAIボイスを生成できなかった。このため、SonanticはNon-Speech Sounds向けに独自のニューラルネットワーク開発し、AIボイスが息遣いをマスターした。

出典: Sonantic

声優の役割

声優はゲームやアニメや映画で欠かせない存在であるが、いまその役割がAIボイスで置き換えられている。声優は、声の吹込みから、AI開発のための教育データの生成に、その役割が変わってきた。長年、エンタメ業界を支えてきた声優の職をどう守るかが問われている。

会話の表現方法

会話はその内容より話し方など表現方法が意思伝達で重要な役割を担う。会話の中で伝達された情報より、それがどのような形で伝わったかが、発言者の意図を把握する手段となる。このため、高度なコミュニケーションを構築するには、AIボイスが感情を表現できることが必須の技術となる。

出典: Meta

倫理的な使い方

AIボイスは聞き手の感情を操作する能力を持ち、その使い方には注意を要す。メタバースでは、自身のデジタルツインを介してコミュニケーションするが、会話の相手は人間だけでなく、AIとの対話が始まる。AIが多彩な表現力を駆使して、消費者に高額な商品を販売し、危険な契約を結ばせる。AIボイスを使ったヘイトスピーチや虐めが始まると、今以上にダメージが深くなる。高度なAIボイスが悪用されると、その被害は甚大で、倫理的な使い方のガイドラインの制定が必須となる。

Meta(Facebook)は世界最速のスパコンを開発、AIとメタバースは高性能プロセッサが勝敗を分ける

Meta(Facebook)は、今週、スパコンを開発していることを明らかにした。最大性能は5 Exaflopsで世界最速のマシンとなる。Metaが独自でスパコンを開発するのは、AIとメタバースの開発で、大量の演算処理が必要になるため。AI開発ではアルゴリズムの規模が巨大化し、その教育には高速プロセッサが必須となる。メタバースはAIと密接に関連し、3D仮想社会を生成するには、高精度なコンピュータビジョンが求められる。

出典: Meta

スパコンの概要

Metaは、スパコンを「AI Research SuperCluster(RSC)」(上の写真)と呼び、AI研究のための高速計算機と位置付ける。今年中旬の完成を予定しており、演算性能はExaflopsを超える。(Exaflopsとは1秒間に10の18乗(10^18)の演算を実行する性能。) 現在、最速のマシンは442 Petaflops (0.442 Exaflops)で、ついにスパコンがExaの領域に入ることになる。

研究テーマ

スパコンは、名前が示しているように、AI研究で使われる。Metaは、自然言語解析(Natural Language Processing)やコンピュータビジョン(Computer Vision)の開発をスパコンで実行する。これらAIモデルはアルゴリズムが巨大化し、その教育で大規模な演算が発生する。パラメータの数が1兆個を超え、もはや、スパコン無しにはAIを開発することができない。

自然言語解析:有害コンテンツを検知

自然言語解析はソーシャルネットワークの有害情報(Harmful Contents)を検知するために使われる。FacebookやInstagramで、フェイクニュースやヘイトスピーチが拡散し、社会問題となっている。今では、ワクチンに関する偽情報が拡散し(下の写真)、ワクチン忌避者が増えている要因とされる。これら有害情報をAIで正確に検知する技術は確立されておらず、ソーシャルネットワークの責任が厳しく問われている。

出典: Meta

Few-Shot Learning

AIが有害情報を正確に検知できない理由は、教育データが不足しているため。アルゴリズムを教育するには、大量のデータを必要とするが、有害情報に関するデータは少ない。例えば、ワクチンに関する偽情報は、少ないだけでなく、その内容は短期間で移り変わる。このため、Metaは少ない事例でAIを教育する「Few-Shot Learning」という技法を開発している。このモデルで判定精度を上げるためには、アルゴリズムのサイズを大きくする必要があり、AIが巨大になる。大規模なモデルを教育するためにスパコンが必須のインフラとなる。

コンピュータビジョン:メタバースの開発

次世代プラットフォームであるメタバースを開発するために、スパコンが必要となる。メタバースは3D仮想社会で、利用者はアバターを介し、オブジェクトとインタラクションする(下の写真)。メタバースにアクセスするためにAR・VR・MRグラスが使われ、デバイスに仮想社会が生成される。高品質な仮想社会を生成するためにコンピュータビジョンが重要な役割を果たし、この開発でスパコンが必須となる。

出典: Meta

システム構成

スパコンのプロセッサにはNvidiaのAIシステム「NVIDIA DGX A100」(下の写真)が使われる。このシステムはNvidiaの最新プロセッサ「A100」を8台搭載した構成で(①の部分)、高速ネットワーク「InfiniBand」で通信する。スパコンは16,000台のA100を搭載し、最大性能は5 exaflopsとなる。スパコンはDGXを連結したクラスタ構成で、AI Research SuperClusterと呼ばれる。

出典: Nvidia

巨大テックがAIスパコンを開発

アルゴリズムが巨大化の道をたどり、AI開発ではスパコンが必須の計算環境となる。Googleは大規模アルゴリズムの開発でAIクラスター「Cloud TPU」を使っている。Microsoftは独自でAIスパコンを開発し、大規模言語モデルを開発している。これからは、メタバースの開発で高速プロセッサが必須となり、スパコンの用途が拡大することになる。

女性の服を脱がせるAIが高度に進化: AIが写真を極めてリアルなヌードイメージに変換、脱がせサイトが急拡大

女性の服を“脱がせる”サイトが急成長している。AIが写真に写っている女性を裸のイメージに変換するもので、生成されるヌードイメージはリアルで、真偽の区別がつかない。”脱がせサイト”に、女性の写真をアップロードすると、そのヌード写真が生成される。このサイトへのアクセスが急増し、危険なサービスがネット上で増殖している。セレブや一般女性が被害を受けており、これからはネットに写真を掲載する際は注意を要す。

出典: (非表示)

サイトXの概要

(被害の拡大を防ぐため、実名を記載せず「サイトX」と表記する。) サイトXは女性の写真をヌードイメージに変換する「Nudify」というクラウドを運営(上の写真、フィルターで加工)。このサイトで、女性の写真をアップロードすると、AIがそれから服を取り去った写真を生成する。写真を裸にするクラウドで、使い方が簡便なことから、アンダーグランドで話題になり、数多くの利用者を集めている。今年に入り、5000万件のアクセスがあり、隠れた人気サイトとなっている。

脱がせるアプリ

サイトXが注目される理由は、高精度なヌードイメージを生成するためである。現在、女性を裸にするAIの代表は「DeepNude」というアルゴリズムで、オープンソースとしてGitHubに公開されている(下の写真)。誰でも自由にこのAIを使い、”脱がせアプリ”を開発できる。実際に、ネット上にはDeepNudeで開発したアプリが多数掲載されている。

出典: DeepNude@GitHub

独自の進化を遂げる

サイトXはDeepNudeを使っておらず、独自でアルゴリズムを開発し、機能が格段に向上した。DeepNudeでは、高品質なイメージを生成するためには、入力する写真に厳しい条件が付く。普通の写真では上手くいかず、水着のように肌が露出しているものが求められた。サイトXではこの制約がなくなり、服を着て肌が露出していない写真もヌードイメージに変換される。このため、応用範囲が拡大し、被害が広がっている。

ビジネスモデル

サイトXはフリーミアムのビジネスモデルを取り、利用料金でビジネスを構成している。トライアルとして無料で使え、制限なく利用する場合は、一回のクエリー(API Quota)で0.15ドル課金される。生成したイメージをダウンロードして利用し、アップロードした写真は数日後に消去される。

パートナープログラム

サイトXの人気が拡大した背後には、ヌードイメージの作成をビジネスと捉え、パートナープログラムを導入した点にある。利用者は、生成したヌードイメージをネットに掲載するが、その際に、サイトXへのリンクを記載することで、報酬を得る仕組みとなっている。このリンクがクリックされると、利用料金が値引きされる。この仕組みでサイトXへのアクセスが急増している。

被害の実態

もはや、被害の範囲はセレブや著名人から一般女性まで多岐にわたっている。女性を正面から撮影した全身写真があれば、それをヌードイメージに変換できるため、多くの女性が被害を受けている。一般女性ではリベンジポルノとして使われるケースが多い。また、利用者の身近の女性が被害を受けるケースが多いと指摘される。

政府の規制

被害の範囲が拡大しているが、米国ではこれを規制する法令は無い。カリフォルニア州は、DeepFakes(顔をスワップするAI)に関し、これを選挙に悪用することを禁止する法令を制定したが、DeepNudeについてはこれを規制する法令は無い。脱がせアプリは、通常のサイトではなく、闇サイトで使われるケースが多く、被害の実態がつかめないことが、規制が進まない原因となる。

出典: gurinaleksandr

女性の防御手段

今のところ、女性が脱がせアプリから身を守る方法は見当たらない。女性が被害に会わないためには、全身の写真をネットに掲載しないことが肝要となる。脱がせアプリに攻撃される危険性を認識し、写真の管理を厳格にすることが必要となる。特に、ソーシャルメディアに全身が写った写真を掲載すると、悪用される可能性が高まる。自分を主張する自由が制約され、窮屈な社会となるが、危険性を考慮して判断を下すことになる。

米国でAIを使った人事採用が規制される、企業はアルゴリズムの妥当性を監査することが求められる

米国企業は、人間に代わりAIが応募者を審査する、「AI人事」の導入を進めている。これに対し、ニューヨーク州は、AI人事を規制する法令を可決した。これはAIが偏った判定をすることを防ぐもので、企業はアルゴリズムの妥当性を証明することが求められる。企業はAIで採用プロセスを自動化しているが、これからはAI人事の運用には制限が課されることになる。

出典: Google

ニューヨーク市の法令

米国では、多くの企業が人事採用プロセスにAIを導入し、アルゴリズムが応募者を評価して、採用の可否を判定する。ニューヨーク市議会は、全米に先駆けて、AIを使った人事採用を規制する法令を可決した。これによると、AIを人事採用プロセスで使う場合は、企業はアルゴリズムが公平に判断を下すことを証明することが求められる。

第三者による監査

具体的には、第三者がアルゴリズムの公平性を監査することが義務付けられた。企業は、アルゴリズムが、性別や人種や出身地に関わらず、公平に評価できることを証明する必要がある。更に、人事面接でAIを使う場合は、その旨を応募者に明らかにすることも求めている。

アルゴリズムの監査

アルゴリズムを監査するというコンセプトは、企業の決算を監査する考え方に似ている。上場企業は、決算報告書を財務当局に提出するが、その際、第三者により決算書の内容が正しいことを証明する。アルゴリズムも同様に、人事採用のプロセスで、AIがバイアス無しに正しく判定を下すことを証明することが求められる。

AI人事のバイアス問題

ニューヨーク市がAI人事を規制する背景には、アルゴリズムが特定グループに有利に働き、判定結果がバイアスしているケースが発生しているため。大企業の多くは、履歴書のスクリーニングや面接でAIを使っている。AIが人間に代わり、履歴書を読み、面接の応対を解析し、採用の可否を判断する。企業としては、多数の応募者を効率的に判定できるため、AIが必須のツールとなっている。同時に、アルゴリズムの公正性について問題が指摘されていることも事実。

出典: Google  

AI人事の判定結果を検証

実際に、AI人事の判定結果を検証するプロジェクト「Objective or Biased」がその問題を明らかにした。AIは様々な手法で面接者を評価し、採用するかどうかを判定する。その一つが、「AI面接」で、アルゴリズムはビデオで撮影された応募者の表情を分析し、採否を判定する。アルゴリズムは、声や使う言葉や手ぶりや表情を分析し、応募者の個性や特性を掴み、募集しているポジションに適しているかどうかを判定する。

AI面接の手法

プロジェクトはAI面接システム「retorio」の判定精度を検証し、結果が公平かバイアスしているかを評価した。retorioはドイツ・ミュンヘンに拠点を置く企業で、ビデオ映像をAIで解析し、応募者の特性を5つの指標で評価する。これらは、「ビッグファイブ」 (Big Five Personality Traits)と呼ばれ、オープン性(Openness)、誠実性(Conscientiousness)、外向性(Extraversion)、合意性(Agreeableness)、神経症(Neuroticism)で構成される。

AI面接の信頼性に疑問アリ

AIがビデオ映像からこれらビッグファイブの特性を評価し、採用の可否を判定する。プロジェクトの検証によると、AIの判定精度は、人物以外のオブジェクトに依存し、必ずしも正しく判定できていないと指摘する。例えば、メガネをかけて面接すると、AIの評価が低下する。また、応募者の背景により評価が変わる(下の写真)。応募者の背後に本棚があると、AIの判定精度が大きく向上する(黄色のグラフ)。これらの事例から、AI面接でアルゴリズムは本人だけでなく、メガネや本棚など、それ以外のオブジェクトを評価しており、判定精度に疑問が残るとしている。

出典: Objective or Biased

アメリカ連邦議会

アメリカ連邦議会もAIによる自動化プロセスを規制する法案を審議している。これは「Algorithmic Accountability Act」と呼ばれ、AIが自動で意思決定をするシステムをハイリスクと認識し、企業にAIの安全性を担保することを求める。具体的には、アルゴリズムの判定精度が高く、バイアスしていないことを保証することが課せられる。この法案は審議中で、可決するかどうかは見通せないが、連邦政府もAIの規制に動き始めた。

AI面接システムの販売停止

AI面接については、その判定精度を疑問視する意見が多く、米国のAI企業HireVueは、AI面接のシステムの販売を停止した。HireVueはビデオ面接の映像をAIで解析し、採用の可否を判定するシステムであるが、AIが本当に人間のように公正に判定できるのか、議論が続いていた。ニューヨーク市を発端に、米国でAI人事への規制が広がる勢いとなってきた。