月別アーカイブ: 2018年8月

Apple Watchが医療機器に進化、スマートウォッチで心臓疾患を検知

Appleは2018年9月12日、特別イベント「Apple Special Event」で、iPhone XとApple Watchの新製品を発表した。第四世代となる「Apple Watch Series 4」は、ハードウェア機構が一新され、健康管理に重点を置くウエアラブルとなった。Apple Watch Series 4はECG (Electrocardiography、心電図) を計測するセンサーを搭載し、心臓の健康状態をモニターする。

出典: Apple

ECGとは

ECGとは心臓の鼓動を電気シグナルとして測定するもので、病院で心臓疾患を検査するために使われる。この機能がApple Watch Series 4に搭載され、家庭で心臓疾患を検知できるようになった。使い方はシンプルで、指をクラウン(Digital Crown)にあてると(下の写真)、アプリ「ECG」が起動し(上の写真、左側)、30秒で心電図を測定する(上の写真、右側)。測定結果は問題が無ければ「Sinus Rhythm」と表示される。もし、心房細動(不整脈の一種)が検知されると「Atrial Fibrillation」と示される。

出典: Apple

Apple Healthに記録される

測定結果はAppleの健康管理アプリ「Health」に格納される(下の写真)。検査結果の判定(Classifications)だけでなく、心電図の波形(Waveform)も記録される。更に、利用者はその時の症状を入力することができる。万が一、異常が検知されると、医師に相談することになるが、その際に、Healthに格納しているECG検査結果を示し、治療判断に役立てる。

出典: Apple

ECG計測のメカニズム

Apple Watch Series 4はECGを測定するために新しいハードウェア機構を搭載した。二つのモジュールから成り、ウォッチ背後に円形電極が付加され(下の写真、外側の円)、更に、クラウンがもう一つの電極として機能する(下の写真、左側の突起)。円形電極が皮膚に触れ、指をクラウンにあてることで、心臓を含む電気回路が作られる。この回路で心臓の鼓動の電気シグナルを計測する仕組みとなる。既にFDA(アメリカ食品医薬品局)の認可を受けており、Apple Watch Series 4を医療機器として使うことができる。

出典: Apple

心拍数の計測と心臓疾患検知

Apple Watchは発売当初から心拍数を測定する機能を提供しているが(下の写真、左側)、Series 4ではセンサーが一新され(上の写真、中央部緑色の部分)、新たな機能が加わった。Apple Watch Series 4は心拍数が異常に高い時、また低い時に、警告メッセージを表示する(下の写真、右側)。更に、上記ECGに加え、心拍数から心房細動を検知するアルゴリズムが搭載され、バックグランドで心臓の健康状態をモニターする。(詳細な説明はないが、心拍シグナルをニューラルネットワークで解析し、心房細動を検知すると思われる。ECGに比べ判定精度は低いが、Apple Watch Series 4を着装している時は、連続して心臓の状態をモニターできる。) センサーは緑色のLEDライトを皮膚に照射し、血管の伸縮や容積の変化を測定する。このデータを解析することで心拍数を把握する。エクササイズ時には心拍数から消費カロリー量を算定する。

出典: Apple

転倒検知機能

Apple Watch Series 4に利用者が転倒したことを検知する機能が付加された。転倒を検知するとディスプレイに緊急SOS(Emergency SOS)画面が表示され(下の写真、左側)、ボタンをスワイプすると電話が発信される(下の写真、右側)。転倒を検知して60秒間アクションが無い時は、利用者が危機的な状態にあると判断し、アプリが自動で電話を発信する。SOS電話の相手として、両親や配偶者などを事前に登録しておく。スノーボードで激しく転倒したときに、救助を求めるために使われる。また、一人暮らしの高齢者が転倒した時に、助けを求める機能としても使えそうだ。

出典: Apple

AliveCor

Apple Watch Series 4がECGを搭載したが、市場には既に多くの製品が販売されている。AliveCorというベンチャー企業は「Kardia Band」というECGモジュールを開発した。これをApple Watchに着装すると(下の写真、バンドの四角のデバイス)ECGを測定できる。このデバイスに指をあててECGを測定し、結果はApple Watchのディスプレイに表示される。Kardia BandがApple WatchでECGを測定できる最初のデバイスとなり、既にFDAの認可を取得し、医療機器として使われている。

出典: AliveCor

Cardiogram

Cardiogramというベンチャー企業は、Apple Watchで心臓疾患を検知するAIを開発した。カリフォルニア大学サンフランシスコ校との共同研究の成果で、Apple Watchで収集した心拍データをAIで解析し、不整脈の一種である心房細動を検知する。Apple Watch Series 4もこれと同じ方式で、心拍シグナルをAIで解析し、心房細動を検知するものと思われる。

健康管理プラットフォーム

Apple Watch Series 4に先立ち、ベンチャー企業で心臓疾患を検知する高度な技術が開発された。Appleはこれら先進技法を取り込み、消費者に使いやすいデザインで提供していることに特徴がある。更に、管理アプリHealthで健康管理をプラットフォームとして設計しており、病院など他のシステムとの連携が期待される。

Apple Watchは医療機器に Apple Watchは、コミュニケーション(通信機能)、エクササイズ(運動量把握)、ヘルスケア(健康管理)の三つの基軸機能を持っている。Apple Watch Series 4でECG機能が搭載され、ヘルスケア機能が大幅にに向上した。Apple Watchはバイオセンサーとして、身体情報をモニターする医療機器としての役割が鮮明になった。Apple Watchは血圧や血糖値を測定する機構を搭載するとのうわさが絶えず、次は何が登場するのか、スマートウォッチが大きく進化している。

Google Assistantがバイリンガルに進化、AI家電は多言語対応が必須機能となる

Googleの仮想アシスタント「Google Assistant」がバイリンガルとなった。今までは単一言語しか使えなかったが、これからは二か国の言語で話しかけることができる。Google Homeに、日本語で問いかければ日本語で答え、イタリア語で質問するとイタリア語で答える(下の写真)。世界でバイリンガル家族が増える中、Google Homeはバイリンガルに進化した。

出典: Google

スマホで利用する

バイリンガルのGoogle AssistantはスマートフォンPixel 2で利用できる。この機能を使うには、専用アプリ「Home」で使う言語のペアを設定する(下の写真左側、英語と日本語を選定)。この設定で、東京時間を英語で尋ねると、Google Assistantは英語で答える(下の写真、右側上段)。また、日本語で尋ねるとGoogle Assistantは日本語で答える(右側下段)。英語と日本語の他に、フランス語、イタリア語、スペイン語、オランダ語の六か国語をサポートしており、この中から二つの言語を選びバイリンガル機能として利用する。

出典: VentureClef

Google Homeで利用する

Google Assistantを搭載しているGoogle Homeでバイリンガル機能が威力を発揮する。筆者宅ではGoogle Homeを家電を制御するハブとして使っており、家の中のLEDライトをオン・オフするときに、英語と日本語で指示できる(下の写真左側)。また、テレビを操作するときも、英語と日本語で指示できる(下の写真右側)。

出典: VentureClef  

バイリンガル世帯

Googleが二か国語機能を投入した理由は、米国や世界でバイリンガル家族が増えているためである。米国では全世帯の二割がバイリンガルと言われている。カリフォルニア州では五割を超えると思われる。バイリンガル世帯では家の中で二つの母国語が使われる。例えば、メキシコからの移住が多い米国では、家庭内で英語の他にスペイン語が使われる。今までは、使う言語によりGoogle Homeの設定を変更していたが、これからは一回の設定で二か国語を使うことができる。

バイリンガル技法

Google Assistantは既に多言語に対応しているが、バイリンガル処理に進むには大きな課題をクリアーする必要がある。課題は二つあり、指示された音声の言語を特定することと、リアルタイムで指示内容を把握しアクションを取ること。

音声の言語を特定

Googleは話しことばの言語を特定する技術を2013年から開発している。これは「Language Identification (LangID)」 と呼ばれ、ニューラルネットワークで話しことばの言語を推定する。話しことばを前処理し、それをRecurrent Neural Networkに入力すると、言語の種類を判定する。 (下の写真、「hey thank you for calling me」という話し言葉をLandIDに入力すると、ネットワークは8か国語のうち、どの言語が話されたかを推定する。ネットワークはフレームごとに推定処理を続け、ここでは英語(濃い青色の部分)が話されたと推定。)

出典: Javier Gonzalez-Dominguez et al.

リアルタイム処理

Google AssistantはLangIDで言語を特定すると、次に、その言葉の意味を把握し、指示されたタスクを実行する。このプロセスは大規模な演算が必要となり、それをリアルタイムで実行することはできない。このため、Googleは二つの言語処理を並列で実行しておき、言語の判定結果がでると、その言語の処理だけを実行する。具体的には、言葉が語られると、二組のLangID処理と言語解析を並列で走らせ、その結果をアルゴリズム(Ranking Algorithm)で評価し(下の写真、中央部)、どちらの言語が語られたかを判定する。言語が確定すると、その言語だけを処理し、もう一方の処理は中止する。対象言語の処理は既に途中まで進んでおり、この技法でリアルタイムに応答できるようになった。

出典: Google

GoogleがAmazonを抜く

GoogleはAmazon Echoのアイディアを借用してGoogle Homeを開発した。Amazonが先行しているAIスピーカー市場で、Googleは高度なAIを武器にGoogle Homeの売り上げを伸ばしてきた。ついに形成が逆転し、GoogleがAmazonを抜き首位の座を奪った。2018年第二四半期、Google Homeの出荷台数は540万台で、Amazonは410万台にとどまった。三位と四位にはAlibabaとXiaomiが入り、中国企業が急速にシェアを伸ばしている。AIスピーカー市場ではGoogleが首位を奪うものの、これからは中国企業との戦いとなる。

多言語対応に向かう

Googleはバイリンガルの次にはトライリンガル機能を投入するとしている。更に、対応する言葉の種類を順次増やし、最終的には主要言語の殆どをカバーすることになる。つまり、Google Assistantは言語の制約がなくなり、どの言語で話されてもそれに対応できるよう進化する。これからのAIスピーカーやAI家電はマルチリンガル対応が必須の機能となることを示している。

出典: E&T Magazine

マルチリンガルな案内ロボット

マルチリンガル機能の応用分野は幅広く、ロボットの対話能力を大きく押し上げる。観光案内ロボットが数多く登場し、ツーリストは対話しながら情報を得ることができる。このプロセスでは、まず、会話する言語を入力する必要がある(上の写真、ピョンチャン冬季五輪の案内ロボットで英語か韓国語を選択する)。LangID技法を応用すると、案内ロボットにいきなり話しかけても、AIが言語の種類を把握し、質問された言語で案内する。東京オリンピックではマルチリンガルな案内ロボットが登場し、世界各国からの旅行者のコンシェルジュとなりそうだ。

AIによる世論操作は国家安全保障の危機、米国国防省はニューラルネットワークでフェイクビデオの検知に成功

AIが現実と見分けのつかない偽のビデオを生成し、社会を混乱させている。これはフェイクビデオと呼ばれ、世論操作のために使われ、米国中間選挙への影響が懸念されている。米国国防省はAIを悪用した情報操作を安全保障への挑戦と捉え、フェイクビデオを検知する技術の開発を急いでいる。

出典: BuzzFeed

フェイクビデオとは

フェイクビデオとは悪意を持って改造されたビデオで、AIが現実に存在しない映像をリアルに描き出す。オバマ前大統領が演説しているフェイクビデオが登場した(上の写真)。これはAIが生成した映像で、どこから見ても本物そっくりで、もう仮想と現実の区別がつかない。これらフェイクビデオがFacebookやYouTubeなどに掲載され、偽の情報を拡散し、有権者の心を揺さぶる。

Adobe Photoshopを悪用しても

フェイクビデオ製作は今に始まった事ではなく、早くから登場している。編集ツールAdobe Photoshopなどを使うと、写真を改造したり、巧妙な偽ビデオを制作できる。しかし、編集は手作業で、精巧なフェイクビデオを作るには技量を必要とする。更に、10秒の短いビデオを制作するにも250枚のイメージを処理する必要があり、膨大な作業が発生する。このため、偽ビデオが大量に制作されることはなかった。

DeepFakeを使うと

しかし、AIを駆使したフェイクビデオ作製ツールが登場し、偽ビデオを作る作業が格段に簡素化された。このツールは「DeepFake」と呼ばれ、ビデオの中に登場する人物の顔を、別の顔と置き換える。このツールを使うと誰でも簡単に、顔をスワップした偽のビデオを制作できる。例えば、女優Jennifer Aniston (下の写真左側、オリジナル写真)の顔を、男優Nicolas Cage(中央)や歌手Taylor Swift(右側)で置き換えることができる。このツールの登場でフェイクビデオが大量に生成され、深刻な社会問題を引き起こした。

出典: Iryna Korshunova et al.

検知技術が追い付かない

フェイクイメージを検知するには、写真をピクセルレベルで解析し、ノイズやイメージセンサー特性などを手掛かりに、偽物を見つける。また、光の当たり具合や影のでき方など、物理的な条件を手掛かりに偽造を検知してきた。しかし、AIが生成するフェイクイメージは精巧で、これら従来の検知手法では偽造を見抜くことができない。

AIを使った検知技術

このため、米国国防省が主導してフェイクビデオを検知する研究が進められてきた。先月、最初の研究成果が登場し、その概要が論文「Exposing AI Generated Fake Face Videos by Detecting Eye Blinking」として公開された。この技術は「In Ictu Oculi (瞬きの間に)」と呼ばれ、瞬きからフェイクビデオを検知する。この技法はニューヨーク州立大学のSiwei Lyu教授らにより開発された。DeepFakeで生成された人物は殆ど瞬きをしないという特性を掴み、これをAIで解析して偽物を検知する。AIを悪用して生成されたフェイクビデオをAIで見抜く手法である。

検知方法

開発されたAI(ニューラルネットワーク)は、ビデオを解析し、ある時間内に人物が瞬きしたかどうかを判定する。ニューラルネットワークを試験するために、実際にフェイクビデオを生成し、その機能を検証した(下の写真)。上段はオリジナルビデオで、ニュース解説者Tucker Karlsonが喋っているシーンで、下段はこれを男優Nicolas Cageの顔で置き換えたフェイクビデオ。これら二つのビデオをニューラルネットワークに入力すると、上段ビデオは6秒のうち1回瞬きをしたと判定。一方、下段ビデオはまったく瞬きをしなかったと判定。人は平均で3.5秒おきに瞬きする。瞬きの回数からアルゴリズムは下段をフェイクビデオと判定した。

出典: Siwei Lyu et al.

その他のシグナル

検知技術は瞬きだけでなく、人間の生理学特性に着目し、不自然な動きを検知する。瞬きの他に、呼吸、心拍、眼の動きなどを解析し、フェイクビデオを検知する。人間は無意識のうちに呼吸し、これが体の動きとして現れる。AIはこのような身体特性を把握してフェイクビデオを特定する。この研究はその一端を公開したもので、フェイクビデオ開発者に手掛かりを掴まれることを避けるため、その他の手法は秘密裏に開発されている。DeepFakeはこれら人間固有の動作を取り入れることができず、ここがリアルとフェイクを見分けるポイントとなる。

国家プロジェクト

この研究はアメリカ国防高等研究計画局 (DARPA)配下で実施された。DARPAはイメージやビデオの信ぴょう性を解析する研究を進めている。これはMedia Forensics (MediFor)と呼ばれ、2016年にスタートした。市場でスマホが普及し、写真やビデオの量が増え、それに伴いイメージ改造技術が向上した。精巧な偽造イメージが登場し、何が本物なのかを判定できなくなった。更に、DeepFakeの登場でフェイクビデオ技術が格段に向上し、国家安全保障を揺るがす事態となった。

AI同士の知恵比べ

DARPAの最初の成果がIn Ictu Oculiで、瞬きの回数を手掛かりに、フェイクビデオを見抜くことができた。防衛技術がDeepFakeに勝利したこととなる。一方、DeepFakeなど攻撃側は、瞬きの回数を取り込み、より精巧なフェイクビデオを生成することは間違いない。これからは、検知技術のAIとフェイクビデオを生成するAIの知恵比べとなる。今回の研究成果はその第一歩で、これからフェイクビデオ対策の長い戦いが始まる。

Google DeepMindはAIのIQを測定、ニューラルネットワークは知能を持ち人間になれる

Google DeepMindが開発したAlphaGoは囲碁のチャンピオンを破り世界を驚かせたが、本当に賢いのか疑問の声が上がっている。AlphaGoはニューラルネットワークで構成され、この技法を究めれば人間のような知能を手にできるのかも問われている。

出典: DeepMind

AIは知能を持つ

ニューラルネットワークは単に統計処理のアルゴリズムで、この道を進んでも知能を持つことはできない、との意見が少なくない。今の人工知能は人工無能と揶揄されるゆえんである。これに対し、DeepMindはAIのIQテストを実施し、ニューラルネットワークは一定の知能があることを突き止めた。ニューラルネットワークを改良すると、人間のように推論できる汎用的な知能を得ることができるとDeepMindは主張する。

ニューラルネットワークのIQテスト

DeepMindはニューラルネットワークのIQテストを実施した。この試験で、ニューラルネットワークは人間のように推論(Abstract Reasoning)できるかが試される。ニューラルネットワークで人間レベルの知能を目指すには、まず、今のAIの知能指数を把握する必要がある。(上の写真、IQテストのサンプルでAIが質問に答えていく。上段パネルの空白部分の答えをAからHの中から選ぶ。答えはA。円の数は左から右に向かい一つずつ増加。これはProgressionという概念を試験するもの。)

知能とは

知能(Intelligence)とは人間が持つ高度な能力で、論理的思考、自己認識、学習能力、推論能力、創造性など、幅広い要素から構成される。AIが知能を備えるためには、この中で推論機能が最初のステップとなり、ニューラルネットワークは推論機能を備えているかがカギとなる。知的なAIを開発するためには、いまのニューラルネットワークが抽象的概念をどの程度理解できるかを把握する必要がある。

IQテストの意味

DeepMindはこの目的で、ニューラルネットワークの知能指数を計測するIQテストを開発した。IQテストは経験から学習したことを図形などを使って視覚的に試験する。例えば、人はモノが進化する様子を経験的に学習する。庭で花が咲く様子を観察し、教室では数学の時間に数が増える概念を教わる。これらはProgressionという概念で、IQテストはこれをゲーム形式に展開し、被験者がこの概念をどれだけ応用できるかが試される。

IQテストの実例

実際の試験ではRaven-style Progressive Matricesという方式のIQテストが使われた(下の写真)。これは1960年代に開発されたもので、言葉ではなく図形を使い、生徒の知能(Fluid Intelligence)を試験する。これをニューラルネットワークに適用し、AIの知能を測定する。この試験ではProgressionの他に、XOR(排他的論理和)、OR、AND、Consistent Unionなど異なる概念が試験された。(下の写真左側:Progressionの試験。答えはA。星の数は上から下に向かい増える。下の写真右側:XORの試験。答えはA。左二つのパネルをXORで演算した結果を右端のパネルに表示。)

出典: David G.T. Barrett et al.

試験方式

人間のIQテストは、我々が日々の生活で学習したことが試験される。しかし、AIは社会に接することはなく、人間のように学習する機会はない。このため、AIのIQテストでは、ニューラルネットワークをあるテストセットで教育し、別のテストセットで試験した。ニューラルネットワークが一つのテストセットで学習した知識を別のテストセットで生かすことができるかが試験された。

試験結果

試験では代表的なニューラルネットワーク(ResNetやLSTMなど)が使われ、それらの知能指数が計測された。更に、DeepMindはこの試験のために知的なニューラルネットワーク「Wild Relation Network (WReN)」を開発し、このモデルの知能指数を計測した。ニューラルネットワークは異なる条件で試験され、IQテストの正解率が示された。ニューラルネットワークの中でWReNが最もいい成績を収めた。WReNの正解率は76.9%で一定のインテリジェンスを持つことが示された(下のテーブル、最上段)。このケースでは教育と試験において同じテストセットが使われた。

出典: David G.T. Barrett et al.  

データセットが異なると

しかし、教育データと試験データが異なると、ニューラルネットワークの正解率は大幅に低下した。データが異なるとは、黒色のオブジェクトで教育し、白色のオブジェクトで試験する場合などを指す(先頭のIQテストにおいて、黒丸を白丸に変えて試験するケース)。この場合は正解率が13.0%と大きく下がり(上のテーブル、下から二段目)、ここがニューラルネットワークの弱点であることが分かった。人間だとオブジェクトの色や形状が変わっても数をカウントできるが、ニューラルネットワークは属性の変化で推論の過程が混乱する。

試験結果の解釈

DeepMindはこの研究を通して、ニューラルネットワークは抽象的な推論を学び、それを問題に適用する一定の機能があることを示した。ネットワークはピクセルから抽象的な概念が存在することを推論することができた。一方、ニューラルネットワークは実社会との接触はなく、限られたデータで教育されれるため、推論機能は限定的であることも分かった。つまり、知的なAIを開発するためには、人間社会との交わりが必須であることを示唆している。

次のステップ

DeepMindの目的は汎用的な知能を持つAIを開発することで、ニューラルネットワークが学んだことを幅広く適用することがゴールとなる。このために、WReNがIQテストで解を求める仕組みを解明することが次の研究ステップとなる。DeepMindは知能指数の高いAIを開発するコンテストを計画している。これは抽象類推コンテスト「Abstract Reasoning Challenge」と呼ばれ、高度な推論機能を持つAIをコミュニティと供に研究を進める。

二つの考え方

AI研究の次の目標は人間に匹敵する抽象推論(Abstract Reasoning)機能を持つマシンの開発にある。Facebook AI研究所所長のYann LeCunは、ニューラルネットワークを改良することで、推論や抽象事象を学習できるとの前提で研究を進めている。一方、New York UniversityのGary Marcus教授は、ニューラルネットワークを突き進めても壁に当たり、一般的な抽象推論機能を持つことはできないと主張する。DeepMindは前者の陣営に属し、ニューラルネットワークをベースとする知的なAIの開発を進めている。