AIが女性の服を脱がせる:GANが写真からヌードイメージを生成、リベンジポルノへの悪用が懸念される

AIの暴走が止まらない。女性の写真を入力するとAIが服を脱がせてしまう。これは「DeepNude」というアプリで、AIが写真を服を脱いだヌードイメージに変換する。女性を標的にしたアプリで、リベンジポルノとして使われると深刻な被害が予想される。また、セレブの偽ヌード写真を生成でき、個人の肖像権が著しく侵害される。フェイクイメージを取り締まる法整備が進むが、SNS企業はこれを拡散させない対策が求められる。

出典: DeepNude  

DeepNudeとは

このアプリは匿名の技術者により開発され、DeepNudeホームページ(上の写真)に掲載されていた。アプリをダウンロードして使うことができたが、社会に及ぼす問題の重大性が認識され、このサイトは閉鎖された。アプリは女性の写真を読み込み、服の部分を肌に変換し、全身のヌードイメージを生成する。アプリは無償版と有償版(50ドル)があり、後者を使うと全身が裸になる。

本当にヌードイメージが生成されるのか

このサイトは閉鎖されたが、既に多くのメディアがこのアプリを試し、その結果を公表している。生成されるヌードイメージの出来栄えは入力する写真により大きく変わる。被写体に光があたり鮮明に映っている場合は極めてリアルなヌードイメージが生成される。一方、入力する写真の解像度が低い場合は生成されるイメージにノイズがのる。また、被写体が暗い場合や正面から撮影されていない場合は、全くイメージが生成されない。なお、このアプリは女性のヌードイメージだけを生成する。男性の写真を入力しても女性のイメージが生成される。

アルゴリズムの制約

これらから、アルゴリズムは女性の写真だけで教育されていることが分かる。男性のヌード写真は使われていないが、興味の対象外であることに加え、インターネットでこれらの写真は少なく、教育データの整備が難しいことも理由となる。更に、教育データの件数は多くなく、特定条件の写真(正面から鮮明に撮影した写真)だけを処理できる。DeepNudeはベータ版という印象を受けるが、AI開発が進むと被害が拡大することになる。

アルゴリズムの仕組み

このアプリは「Image-to-Image Translation with Conditional Adversarial Networks」という研究成果を使っている。これはBerkeley AI Research (BAIR) Laboratoryが公表した論文で、入力したイメージを異なるイメージに変換するAI技法である。研究チームはこの成果をソフトウェア「pix2pix」として公開している。pix2pixはGenerative Adversarial Networks(GAN)の手法を使い、入力されたイメージを指定されたイメージに変換する。例えば、靴のスケッチをpix2pixに入力すると靴の写真が生成される(下の写真、GANの仕組み)。

出典: Phillip Isola et al.

イメージ変換の応用事例

pix2pixの特徴は同じアルゴリズムを異なるモデルで使えることで、応用分野は広く様々な操作ができる。例えば、ラベル付けされた道路イメージを道路の写真に変換する (下の写真、左側上段)。また、航空写真を地図に変換するプロセスでも利用される(左側下段)。更に、白黒写真をカラー写真に(右側上段)、昼間の写真を夜の写真に(中央下段)、夏の写真を冬の写真に変換することができる。

出典: Phillip Isola et al.

DeepNudeへの応用

DeepNudeもこのイメージ変換の技法を使った事例となる。DeepNudeは上述の通り、GANを女性のヌード写真で教育した。これ以上の説明はないが、ヌード写真の一部をマスクし、GANはマスクしたヌード写真から元の写真を生成できるよう教育されたものと思われる。元の写真がGround Truthとなり、GANはマスクされた部分(服の部分)を元の写真(肌の部分)に変換する技法を習得し、全身のヌードイメージを生成する。

社会的影響の大きさ

このアプリは軽い娯楽として開発されたのかもしれないが、想定外に重大な問題を内包している。特定の女性を攻撃するためにこのアプリが悪用されると社会に与える影響は重大である。男性が女性に復讐するためにDeepNudeを使うと、写真をヌードイメージに変換し、偽のリベンジポルノが生成される。また、組織が女性活動家の行動を制限するためにDeepNudeを使う可能性も否定できない。前述の通り、セレブのフェイクヌードが拡散し個人の尊厳が脅かされる。

既にフェイクビデオが拡散

既に、DeepFakesで生成されたフェイクビデオがネットで拡散し社会問題となっている。最近では、 ZuckerbergのフェイクビデオがInstagramに公開された(下の写真)。本物と見分けのつかない偽のZuckerbergがデータの独占について語る仕組みとなっている。Facebookはサイトからフェイクビデオを削除しないことを表明しており、開発者はこの指針に抗議するためこのフェイクビデオを投稿した。

出典: bill_posters_uk@Instagram

フェイクビデオをどう取り締まるか

DeepFakesやDeepNudeへの対策が喫緊の課題となっている。米国連邦議会はDeepFakesによるフェイクビデオの流通を制限する法案「DEEP FAKES Accountability Act」を作成した。一方、DARPAはフェイクビデオを検知する技術の開発を進めているがまだ目立った成果は出ていない。このため、フェイクビデオを取り締まるためには、DeepFakesやDeepNudeの開発者が同時に、偽コンテンツの識別技術も開発する必要があるとの議論が進んでいる。更に、Facebookなどのプラットフォームはフェイクビデオの拡散を防ぐ技術を確立することが求められている。

DeepNude改良版

DeepNudeのサイトは閉鎖され問題は沈静化に向かうように見えるが、既にパンドラの箱は開けられ、元に戻ることはできない。DeepNudeに代わるアプリが開発されていることは明らかで、GANを強化し完成度の高いヌードイメージを生成するアプリが登場することが予想される。今度は、攻撃されるのは女性だけでなく、男性も対象となり、新たな問題が生まれる。