カテゴリー別アーカイブ: 人工知能

NvidiaのGANは完璧なフェイクイメージを生成、顔のパーツをマッシュアップして思いのままに人物を創り出す

Nvidiaはフェイクイメージを生成する技術Generative Adversarial Network (GAN)の最新版を公開した。GANは顔写真を学習し、そのスタイルを把握して、人の顔を生成する(下の写真)。画像は実在の人物ではなく、AIが人の顔というコンセプトを理解して想像で描いたもの。もはやリアルとフェイクの見分けはつかず、インターネット上には存在しない人物の顔写真が蔓延することになる。フェイクニュースの次はフェイクイメージが社会問題になりそうだ。🔒

出典: Tero Karras et al.

IBMは人間と議論できるAIを開発、人間がディベートでAIに負ける時代が到来

議論して負けるのは心地よいものではないが、今度はAIに負ける時代が到来した。IBMは議論できるAI「Debater」を開発し、討論会で人間のチャンピオンと対戦した。Debaterは勝てなかったが、高度な言語理解能力を示し、会社の会議でAIが議論をリードする時代がやって来たことを感じさせた。🔒

出典: IBM

Googleが開発したAIは東京大学に合格できる!?AIが文章を理解して質問に回答する

Googleは質問に回答できるAIを開発した。これは「BERT」と呼ばれ、与えられた文章を理解して、その内容を質問されると、正確に回答する。正解率は人間を上回り、ついに言語モデルでもAIが人間を超えた。日本の「東ロボくん」は受験を断念したが、Google BERTは東京大学に入学できる実力を持つ。🔒

出典: Jacob Devlin et al.

IBMはAIのロジックを可視化するクラウドを投入、Explainable AIで信頼できるAIモデルを構築

銀行や保険会社はAIを導入しプロセスを自動化する試みを進めている。しかし、AIのロジックはブラックボックスで、意思決定の仕組みが見えない。動作メカニズムが解明されない限り、AIを会社業務に導入できない。IBMはこの問題を解決するために最新のExplainable AIをクラウドで投入した。

出典: IBM

コールセンター

IBMはWatsonをベースとしたAIモデルを企業システムに展開している。その中で人気が高いのがAIコールセンターで、チャットボットがオペレーターに代わり電話を受ける。英国の大手銀行Royal Bank of Scotlandはチャットボット「Cora」を開発し、コールセンターで運用している。Coraは200以上の質問に対し1000通りの回答をすることができ、コールセンターの仮想オペレーターとして利用されている。Coraは進化を続け、次は顧客のファイナンシャルアドバイザーとしての展開が計画されている。

納税書類作成

米国の大手会計事務所H&R BlockはIBM Watsonを利用して納税申告書作成プロセスを最適化した(下の写真)。H&R Block社員が顧客と対面して申告書を作成する際に、Watsonが会話を理解して税金控除(Tax CreditsとTax Deductions)を提言する。米国の税制は複雑で法令は74,000ページに及び、毎年改定される。H&R Blockはこの法令と社員のノウハウでWatsonを教育し、AIが節税のポイントを発見する。

出典: IBM

データ保護規制へのコンプライアンス

カナダの大手情報会社Thomson ReutersはEU一般データ保護規則(General Data Protection Regulation)など準拠するため、AIツール「Data Privacy Advisor」をIBM Watsonで開発した。これは社内のコンサルタント向けのツールで、普通の言語で質問するとツールは言葉で回答を提示する。Thomson ReutersとIBMはデータ保護規則だけでなく、コンサルタントのノウハウでWatsonを教育した。GDPRなどデータ保護法が強化され、企業はマニュアルでの対応に限界を感じAIツールの開発に踏み切った。

AIの説明責任

企業は業務処理でAIを導入するが、そのアルゴリズムはブラックボックスで、重要な処理をAIに任せることができない。また、AIモデルを運用中に問題が発生すると、これを検知するメカニズムが必要となる。更に、問題の原因を突き止め、AIモデルを修正する機能も求められる。業務で使うAIには意思決定のロジックを分かりやすく説明する機能が必須となる。

OpenScaleを発表

市場からExplainable AIに対する要望が高まり、IBMはAIのブラックボックスを解明するクラウド「OpenScale」を発表した。OpenScaleは企業が運用するAIと連携して稼働し、AIモデルの処理プロセスを解明し、アルゴリズムの問題点を指摘する。また、OpenScaleは問題点を指摘するだけでなく、その対応策を提言する機能も有す。OpenScaleはIBM Cloudで提供され、企業が開発したAIモデルと連携して稼働する構造となる。

システム概要

OpenScaleはIBM ResearchとWatsonグループにより開発された。OpenScaleはAIの信頼性を増し、ロジックを明らかにすることを目的に設計された。具体的には、AIモデルに説明責任(explainability)、公平性(fairness)、ライフサイクル管理(lineage)の機能を付加する。OpenScaleは主要AI開発プラットフォームと連携して稼働し、Watson、Tensorflow、SparkML、AWS SageMaker、 AzureMLをサポートする。

バイアスの検知

OpenScaleは業務で稼働しているAIモデルを解析し、「Accuracy(判定精度)」と「Fairness(公平性)」を査定する。下の写真は自動車保険のAIモデルを解析した事例で、どこに問題点があるかを表示している。それぞれのタイルはAIモデルで、自動車保険業務で8つのモジュールが稼働している。これらAIモデルを解析し、OpenScaleはAccuracyとFairnessに関する問題(紫色のハッシュの部分)を指摘している。更に、タイル上部に赤文字で「Bias」と表示される。

出典: IBM

バイアスの原因

この指摘に従ってAIモデルをドリルダウンして判定のメカニズムを見ることができる。例えば「Claim Approval」というAIモデルをクリックすると、自動車保険の保険金請求に関する問題点が可視化される(下の写真)。ここにはAIモデルを教育したときのデータ構成が示されている。横軸が年齢で縦軸がデータ件数を示す。OpenScaleは24歳未満の加入者が公正に扱われていないと指摘する。この原因は教育データの数が不足しているためで、24歳未満の加入者のデータを追加してAIモデルを再教育する必要があることが分かる。

バイアスの説明

更に、OpenScaleは過去のトランザクションでAIモデルが判定した理由を説明する機能もある。自動車保険の保険金請求において、実際のトランザクションのデータをOpenScaleで解析することで、判定理由が示される。具体的には、保険金申請が認められなかった場合には、その理由が示される。実際、保険金請求処理で申請が認められなかった場合は、顧客にこの理由を説明することが法令で義務付けられており、OpenScaleを使うことで法令に順守できる。

出典: IBM

AIプラットフォーマーとなる

OpenScaleを投入したことは、IBMはAIのシステムインテグレータになることを表明したとも解釈できる。AI開発で遅れを取っているIBMであるが、オープンなアプローチででAIモデルを安全に稼働させるプラットフォーマーになる戦略を進めている。Googleを筆頭にシリコンバレーで怖いほどのAIが生み出されるが、東海岸の代表企業IBMは無秩序に増殖するAIを管理運営することをミッションとする。激しく進化するAIを企業が業務で安心して使えるための技術開発がIBMの新たな使命となる。

GANは極めて精巧なフェイクイメージを生成、作画メカニズムが分かりExplainable AIの研究が進展

AIは社会生活に多大な恩恵をもたらすが、その中身はブラックボックスで処理のプロセスが見えない。このためAIを安心して利用することができず、普及の足かせになっている。今年は説明責任を果たせるAIの研究が進む年となる。MITの研究チームはGenerative Adversarial Network (GAN)のアルゴリズムを解明し、AIの思考プロセスを明らかにした。

出典: Karras et al. (2017)

フェイクのセレブ

GANは写真撮影したように架空のオブジェクトをリアルに描き出すことで注目を受けている。例えば、セレブの写真をGANに入力しネットワークを教育すると、アルゴリズムは仮想のセレブを描き出す(上の写真)。どこかで見かけた顔のように思えるがこれらは実在の人物ではない。GANがセレブというコンセプトを学び想像で描いたもので、これらのイメージを検索しても該当する人物はでてこない。リアルとフェイクを見分けることができずGANに対して気味悪さを感じるが、AI研究の主要テーマとなっている。

AIアートが高値で売れる

GANが芸術作品を生み出し、それが高値で落札されたことで、一躍その手法に関心が集まった。フランスのAI芸術家集団「Obvious」はGANで絵画を生成する手法で芸術の普及に貢献している。その代表作「Edmond De Belamy」がChristie’sのオークションで$435,000で落札された(下の写真)。AIが生成した絵画に高値が付き市場を驚かせた。作品はある家族(Belamy Family)を描いたもので11点が制作され、その一点がこのEdmond De Belamy である。

出典: Christie’s

AIアートの著作権

AIが描いた絵画にどれだけの芸術的価値があるかが議論になっているが、同時に、AIが制作した作品の著作権は誰に帰属するかも問題となっている。このAIアートを制作したのはObvious社で、GANに古典的な肖像画15,000点を読み込ませアルゴリズムを教育した。GANは肖像画というコンセプトを学びアルゴリズムは新しい作品を創作した。

アルゴリズム開発者か利用者か

Obvious社が使用したGANはRobbie Barratという人物が開発し、オープンソースとしてGitHubに登録されている。誰でも自由にこのGANを使うことができるが、Obvious社はGAN開発者には触れず、ルール違反が指摘されている。そもそも、生成された絵画の著作権はアルゴリズム開発者にあるのか、それともアルゴリズム利用者にあるのか、議論となっている。

MIT-IBM Watson AI Lab

GANに関する多くの問題が未解決であるが、時代を変える技術として注目されている。また、GANのアルゴリズムはブラックボックスで、作画の仕組みを解明する動きが広がっている。MITの研究グループ「MIT-IBM Watson AI Lab」はGANのアルゴリズムの解明を進め、GANの思考メカニズムを明らかにした。GANはどのように学習し、どのように判断するかが特定でき、この研究がAIのブラックボックスを解明する大きな第一歩となった。

研究成果

研究成果は「GAN Dissection: Visualizing and Understanding Generative Adversarial Networks」として発表された。この研究でGANがオブジェクトを把握するメカニズムを解析し、それを可視化して示した。具体的には、ニューラルネットワークの中で、どのレイヤーのどのニューロン(ユニットと呼ぶ)が特定のオブジェクト(木や雲など)の生成に関係しているかを突き止めた。

ユニットの機能をオン・オフ

更に、特定したユニットの機能をオン・オフさせ、その効果を検証した。特定のユニットの機能を停止させることで、オブジェクトを取り去ることができることを示した。反対に、そのユニットの機能を強化することで、オブジェクトを追加できることも示した。(下の写真がその事例、左端がオリジナルのイメージで、木に関連するユニットの機能をオフ・オンすることで、木を削除(中央)したり、追加(右端)できる。)

出典: MIT-IBM Watson AI Lab

アルゴリズムは常識を学ぶ

特定されたユニットはオブジェクトを生成するだけでなく、オブジェクトに関する常識も学んでいる。例えば、ドアを追加する際には、建物のスタイルにマッチしたドアを生成する。更に、ドアを建物以外のオブジェクト(例えば空)に追加しようとしても、アルゴリズムはこれを拒否する(下の写真)。アルゴリズムは教育の過程で人間のように常識を得ることが示された。

出典: MIT-IBM Watson AI Lab  

応用事例

この技法を使うとイメージを容易に変更することができる。ユニットと家具や人物の関係を把握することで、イメージの品質を向上することができる。例えば、GANが生成した寝室(下の写真、左側上段)から家具や小物を削除することで綺麗なイメージ(下の写真、左側下段)が出来上がる。また、GANが生成した会議室(下の写真、右側上段)から人物や窓を取り除き新しいイメージの会議室(下の写真、右側下段)を生成できる。これらはピクセルを変換するのではなく、ニューラルネットワークの特定ユニットを操作することでイメージを変換する。

出典: David Bau et al

Explainable AIの研究が進展

このようにニューラルネットワークのユニットを操作することで、アルゴリズムがイメージを生成する仕組みの解明につながる。ニューラルネットワークは学習を積むことで、特定のオブジェクトを描くユニットを構成することが分かった。ドアを描くニューロンのグループを形成し、このユニットはドアの意味も理解し、背景にマッチしたドアを描く。高値で売れるAIアートを生成するアリゴリズムの開発に結び付くのか、ブラックボックスに光があたり、Explainable AIの研究が進み始めた。