カテゴリー別アーカイブ: 人工知能

Teslaは完全自動運転車を年内に投入すると表明、AIがクルマを運転する仕組みと解決すべき課題も判明

Tesla CEOのElon Muskは中国・上海で開催されたAIイベントで、完全自動運転車を今年末までにリリースすることをビデオメッセージで表明した。これは「Full Self-Driving」と呼ばれ、レベル5の自動運転機能で、ドライバーの介在無しにクルマが自律的に走行する。また、これを支えるAIについて、基本機能は問題ないが、まだ解決すべき課題があることも明らかにした。

出典: Tesla  

自動運転車の方式

自動運転技術は完成度が上がり、無人走行の試験が進んでいるが、クルマはどこでも走れるわけではない。自動運転車は事前に定められた域内だけで運行できる設計で、域外では自動走行できない。これに対しTeslaは、AIが人間のドライバーのように視覚(カメラ)の映像だけでハンドルを操作し、初めての街でも自律的に走行できる。これを支えているのが高度なAIでその構造と課題が明らかになった。

Waymoのアプローチ

Waymoなど多くの自動運転車はLidar(レーザーセンサー)とカメラを組み合わせて周囲の状況を把握する。更に、走行前にその地域の詳細なマップ(Base Map)を作成しておき、クルマはこれに沿って自動走行する。マップは仮想レールともいわれ、クルマは事前に定められたコースを忠実に走行する。

Teslaのアプローチ

これに対して、Teslaはカメラだけで自動運転機能を実現する極めて先進的なアプローチを取る。また、詳細マップは不要で、AIが人間のドライバーのように、初めての街でも運転できる。つまり、メーカーはクルマを販売するだけで、詳細マップの開発や更新は不要となり、事業規模を制約なしに拡大(Scalability)できる。Teslaは自動運転車事業を成功させるためにはこのアプローチしかないと主張する。

Teslaの自動運転技術

Teslaは「Autopilot」と「Full Self-Driving」の二種類の自動運転機能を提供している。Autopilotは運転支援機能で、ドライバーに代わりソフトウェアがクルマを制御する。クルマは周囲の車両の速度に合わせて走行し、車線を認識しレーンをキープする。Autopilotは限定的な自動運転機能で、ドライバーは両手をステアリングに添えておく必要がある。Autopilotはすべての車両に搭載されている。

Full Self-Driving

Full Self-Drivingは高度な自動運転機能で、高速道路や市街地を自動で走行する。高速道路では、入り口から出口まで自動走行し(Navigate on Autopilot)、車線変更も自動で行う(Auto Lane Change)。また、自動で駐車する機能や、駐車場からドライバーのところに自動で移動する機能もある(Smart Summon)。更に、市街地においては信号を認識し、自動で走行する。これは「Autosteer on City Streets」と呼ばれ、完全自動運転車の中核機能となる(下の写真)。この機能は2020年末までにリリースされる予定で、これでレベル5の完全自動運転車が完成する。

出典: Tesla  

完全自動運転車がデビュー

市販されているクルマはFull Self-Drivingに必要なセンサーやプロセッサ(FSD Computer)を搭載しており、ソフトウェアのアップデートで完全自動運転車となる。クルマを購入する際にFull Self-Drivingを選択するとこの機能を使え、価格は8,000ドルに設定されている。Full Self-Drivingのリリース時期は当初の予定から遅れたが、ついに年内に製品が登場する見込みが濃厚となった。他社が苦戦する中でTeslaが先行して完全自動運転車を市場に投入することになる。

【技術情報:Full Self-Drivingの仕組みと課題】

システム全体の構造

Teslaは自動運転システムについて明らかにしており(下の写真、左側)、AIのアルゴリズム教育から実行までを統合して実行する。市販車両はカメラで路上のオブジェクトを撮影するが、これらはデータベース「Data」に集約される。これを使ってアルゴリズムを教育(「Dojo Cluster」と「PyTorch Distributed Training」)し、その結果を検証「Evaluation」する。教育されたアルゴリズムはオンボードコンピュータ「FSD Computer」に実装されクルマを制御する。これに加えもう一つのAIがこの背後で稼働し、密かに自動運転の訓練を積んでいる(Shadow Mode)。

出典: Tesla  

ニューラルネットワークの構造

ニューラルネットワークは「HydraNet」と呼ばれ、カメラが撮影した映像を解析する。HydraNetは共通機能「Shared Backbone」に特定機能を搭載した構造となる(上の写真、右側)。共通機能はイメージ判定ネットワーク(ResNet 50)で構成され、ここでオブジェクトの種別を判定する。この情報を元に、特定機能がオブジェクト判定(Objects)や信号機の読み取り(Traffic Lights)などを行う。共通機能に複数の特定機能が首のようについており、その形が妖怪ヒドラに似ていることから、HydraNetと呼ばれる。

ニューラルネットワークの機能

HydraNetは道路周辺のオブジェクトを認識し、信号機や車線などを把握する。クルマはこの情報を元にレーンをキープし、赤信号で停止する。HydraNetは単体で使われるだけでなく、複数のネットワークを組み合わせ、複雑なタスクを実行する。例えば、二つのカメラが撮影した映像を二つのHydraNetで処理し、それを重ね合わせてオブジェクトを3Dで把握する(下の写真)。この他に、複数のHydraNetで道路のレイアウトを把握することもできる。

出典: Tesla  

AI専用プロセッサ

TeslaはAI処理専用プロセッサ「FSD Computer」(下の写真、左側)を独自で開発し、これをクルマに搭載し、AIを高速で処理する。このボードは二つのチップ「FSD Chip」を搭載し、チップにはAI処理装置「NPU」を積んでいる。クルマに搭載されているAIの数は多く、これらを処理するためには高性能AIプロセッサーが必要になる。クルマで48のニューラルネットワークが稼働し、1,000種類の判定結果(Tensor)を出力する。高速で走行するクルマはリアルタイムでこれらのAIを実行することが必須要件となる。

出典: Tesla  

クルマがオブジェクトを認識

クルマに搭載されたHydraNetは走行中にカメラが撮影した映像から、そこに映っているオブジェクトを判定する(下の写真、左側)。クルマや歩行者などの他に、道路の車線や道路標識などを把握する。このケースは一時停止標識「Stop」を検知した状況で、HydraNetが正しく道路標識を認識できるかがクルマの安全性に結び付く。

出典: Tesla  

アルゴリズム教育

このため、HydraNetは写真に写っている市街地の様々なオブジェクトを使って教育される。市販のクルマは搭載しているカメラで走行中に車線や道路標識や歩行者など数多くのオブジェクトを撮影し、これらの映像はTeslaのクラウドに送信される。Teslaは、写真に写っているオブジェクトの名称を付加し(上の写真、右側)、これを教育データとして使う。市販車両が撮影した大量の映像が教育データとして使われ、ドライバーはAI教育に寄与していることになる。

Data Engine

アルゴリズム教育では如何に多種類のデータを揃えるかでAIの認識精度が決まる。例えば、一時停止標識の見え方は様々で、街路樹に隠れて見えにくいケースや、夜間の暗がりで判別しにくいものがある(下の写真、左側)。Teslaは収集した映像の中から、異なるケースのオブジェクトを見つけ出すAI「Data Engine」を開発した。Data Engineは路上で起こりえる様々なケースを見つけ出し、アルゴリズムの判定精度を向上させる。

出典: Tesla  

データのロングテール

つまり、HydraNetの教育ではロングテールのデータを如何に大量に収集できるかで判定精度が決まる。クルマは走行中に考えられない事象に出くわす。トラックの荷台から椅子が落ち、クルマで犬を散歩させているシーン(上の写真、右側)に遭遇する。Data Engineはこれら非日常的なシーンを見つけ出し、これらのデータでアルゴリズムを教育すると、めったに起こらない事象にも対応できるAIが完成する。TeslaによるとAI開発の難しさはアルゴリズムではなく、これらロングテールのデータを揃えることにあるとしている。

Software 2.0

クルマのソフトウェアはAIとコーディングの部分で構成される。初期のソフトウェア(Software 1.0)はAIの判定結果を人間がC++でコーディングしてオブジェクトの意味を判断していた。最新のソフトウェア(Software 2.0)では、AIが独自でオブジェクトの意図を把握する。今ではソフトウェアに占めるAIの部分が大きくなり、入力から出力までプログラムの介在なく、AIが処理を担う方向に進んでいる。(下の写真、割り込みを検知する事例:Software 1.0ではルールをコーディングしてこれを検知(左側)、Software 2.0ではAIが事例を学習してこれを検知(右側)。)

出典: Tesla  

Bird’s Eye View Network

クルマが走行中に走行経路を予測するために専用のAI「Bird’s Eye View Network」が開発された。これは複数のカメラの映像(下の写真、上段)を繋ぎ合わせ、車線や道路の端や移動オブジェクトを把握し(下の写真、下段:青色が車線で赤色が道路の端を示す)、安全に走れるルートを算出する。クルマはこの解析データを元に走行する車線を決め、このネットワークが自動走行のブレインとなる。

出典: Tesla  

自動運転技術の最後の壁

Bird’s Eye View Networkの精度が自動走行できる範囲を決める。実社会には上の事例のようにシンプルな交差点だけでなく、複雑な交差点が多数存在する。人間でもうまく運転できない場所は多く、走行経路をニューラルネットワークが如何に正確に予測できるかがカギとなる。こがTeslaの自動運転技術開発の大きな壁となり、これを乗り越えないと完全自動運転車は完成しない。AIがカメラだけで道路の形状を認識、走行経路を算定できるのか、学術研究のテーマとしても大きな意味を持っている。このため、Teslaは大学に呼びかけ、共同研究を通じブレークスルーを目指している。

Lidar対カメラ

自動運転車のアーキテクチャは二つに分かれ、WaymoのようにLidarを使う方式と、Teslaのようにカメラを使う方式になる。前者が主流でクルマはLidarとカメラを併用して自動走行を実現する。一方、Teslaは独自の道を歩み、カメラだけでこれを実現する。ハードウェアの助けを借りないでソフトウェアでこれを実現するもので、AIの開発成果が成否を握る。この方式が成功すると、製造コストは劇的に下がり、自動運転車が幅広く普及することとなる。Teslaはハイリスク・ハイリターンなルートを進んでいる。

全米で顔認識技術の使用が禁止される、AIの判定精度が悪く人種差別や誤認逮捕につながる

米国連邦議会は顔認識技術の使用を全米で禁止する法案を提案した。これは連邦政府関係者が顔認識技術を使うことを禁止するもので、AIの危険性が全米レベルで認識されたことを意味する。既に、サンフランシスコ市などは顔認識技術の使用を禁止しているが、この流れが全米に拡大した。この背景には、アメリカ社会の人種差別に関する構造的な課題がある。

出典: MIT Media Lab

法案の概要

この法案は「Facial Recognition and Biometric Technology Moratorium Act」と呼ばれ、民主党の有力議員により提案された。法案は連邦政府の治安部門が顔認識技術(facial recognition technology)を所有し、これを使うことを禁じている。更に、連邦政府から助成金を受けている地方政府にも同様の規制を求める。

人権問題との関連

米国では警察が顔認識技術を使って犯罪捜査をすることに対し批判的な意見が多く、議論が続いていた。この中で、警察が黒人男性George Floyd氏を死亡させたことで、全米各地で抗議デモが続いている。警察の捜査手法に抗議するもので、顔認識技術もその一つであるとの認識が広がっている。顔認識技術は完全ではなく、判定精度に偏り(Bias)があり、犯罪捜査で黒人に不利になっているという事実がある。

IBMは事業を停止

このような社会情勢の中で、主要IT企業は顔認識技術の使用中止を表明した。6月9日、IBMは顔認識技術の開発と販売を中止し、事業から撤退することを発表した。この理由として、顔認識技術は人種差別を助長する要因となっており、IBMは技術が住民監視や、人種特定に使われることに反対し、国民の人権と自由を守ると表明した。

Amazonはモラトリアムを宣言

Amazonはその翌日、顔認識技術の使用を制限すると発表した。具体的には、顔認識技術「Rekognition」を警察が使用することを1年間中止する。警察による過剰な捜査手法が問題になり、顔認識技術もこの一部として認識され、Amazonは国民世論に押されモラトリアムを宣言した形となった。(下の写真、Rekognition:アマゾンクラウドの機能で使用料が安く、多くの警察で使われている。)

出典: Amazon  

顔認識技術の問題点

多くの企業が顔認識技術を提供しているが、非難の矛先はAmazonに集中している。Amazonの顔認識技術Rekognitionは他社に比べて判定精度が低いとの指摘がある。更に、人種間で判定精度が大きく異なるという問題を抱えている。白人では判定精度のエラー率は3.08%であるが、黒人のエラー率は15.11%と高い。更に、白人男性ではエラー率はゼロであるが、黒人女性のケースでは31.37%と高い。つまり、犯罪捜査でRekognitionが使われるが、黒人の判定精度は低く、これが誤認逮捕につながる。(下のテーブル:主要各社の顔認識技術とその判定精度、Amazonは下から二段目、各社とも黒人の判定精度は低い)

出典: Inioluwa Deborah Raji et al.

警察の利用方法

Rekognitionは全米の多くの警察で利用されている。犯罪捜査で被疑者の写真から身元を割り出すためにRekognitionが使われる。犯罪現場で監視カメラが撮影した被疑者の顔写真と、犯罪者データベースを比較して、その人物の名前を特定する。被疑者の顔写真を入力すると、Rekognitionがその特徴量でデータベースを検索し、よく似ている顔を出力する(下の写真)。犯罪者データベースには収監された犯罪者の顔写真が格納されている。被疑者の身元を簡単に特定できるため、Recognitionは犯罪捜査で大きく役立っている。

出典: Washington Post

顔認識技術が誤認逮捕の原因

顔認識技術を使った犯罪捜査で恐れていた事態が発生した。New York Timesなどがこれを報道し、AIの危険性が再認識された。ミシガン州デトロイト警察は顔認識技術を使い犯罪捜査を進めている。監視カメラに写った顔写真を顔認識システムに入力し、その人物身元を割り出す。このケースでは、AIの判定結果は間違いで、黒人男性を誤認逮捕し長時間にわたり拘留した。警察はAIが判定する結果に基づき被疑者の逮捕に踏み切った。記事は、デトロイト警察は顔認識技術はRecognitionではなく、日本企業など技術を使っていると報じている。

アルゴリズムがバイアスする理由

人種間で判定精度が大きく異なる理由は明白で、教育データが偏っているためである。アルゴリズムは数多くの白人の顔写真で教育され、白人についての判定精度は高くなる。一方、黒人の教育データ数は少なく、そのため、アルゴリズムの判定精度が下がる。このため、教育データを整備するとき、人種間でばらつきをなくすることで問題を解決できる。

根強い不信感と地域の治安

顔認識技術が社会問題となったのは、判定精度だけでなくその利用方法にある。仮に、アルゴリズムのバイアスが修正されても、顔認識技術への抵抗感は根強く存在する。警察の犯罪捜査で、顔認識技術が特定人種の被疑者を逮捕する方便として使われる、と解釈する人は少なくない。また、国家が顔認識技術で国民の行動をモニターしていると感じる人も少なくない。その一方で、顔認識技術が犯罪捜査に役立ち、地域の治安に大きく貢献していることは事実である。特に、テロリスト対策で顔認識技術は国家安全保障に寄与している。

出典: Deepak Babu Sam et al.

政府のガイドライン

つまり、顔認識技術に関するガイドラインの欠如で不信感が増幅され、技術が治安に生かされていない。今は、統一した基準はなく、Amazonなど各社は独自のルールを作り、事業を進めている。一方、ある新興企業は犯罪すれすれの手法で顔認識技術を開発し問題が深刻化している。このため、AmazonやMicrosoftなどIT企業各社は連邦政府に対し規制の制定を呼び掛けている。上述の法令は顔認識技術の使用を全面的に禁止するもので、運用ルールについては触れていない。これが最初のステップとなり、政府のガイドライン制定が進むことが期待されている。

新型コロナの感染をウェアラブルで検知する、AIが身体データを解析し症状が出る前に病気を把握

コロナ社会で安全に生活するには、感染者を把握し、拡大を防ぐことが必須条件となる。このためPCR検査を定期的に実施し、感染状態を把握し、コロナの封じ込めを試みている。感染者の特定には時間がかかるため、PCR検査に代わりウェアラブルで病気を把握する研究が始まった。ウェアラブルで被験者の動きをモニターし、収集したビッグデータをAIで解析し、発病前に感染の有無を判定する。

出典: Evidation Health

研究プロジェクト

これは米国政府の新型コロナに関する先進研究で、シリコンバレーの新興企業Evidation Healthが手掛けている。Evidation Healthはウェアラブルで被験者のデータを収集し、それを機械学習の手法で解析し、感染したことを判定する。研究資金は米国生物医学先端研究開発局(Biomedical Advanced Research and Development Authority)とビル&メリンダ・ゲイツ財団(Bill & Melinda Gates Foundation)はから拠出され、研究成果は一般に公開される。

Evidation Healthとは

Evidation Healthは医療分野におけるAI企業で、身体のビッグデータを機械学習の手法で解析し、新たな知見を得る研究を進めている。新型コロナの研究では同社のプラットフォーム「Achievement platform」でデータ解析が実行される(下の写真)。これは医療ビッグデータを解析するためのプラットフォームで、被験者から採取したデータをアルゴリズムで解析するための様々な機能を備えている。医療機関はこのプラットフォームを利用して新しいアルゴリズムやそソフトウェアを開発する。例えば、薬に対する反応を把握し、患者に最適な治療法を確立することが可能となる。

出典: Evidation Health  

新型コロナ感染を検知

この研究では300人の被験者から健康に関するデータを収集し、このプラットフォームで解析する。具体的には、ウェアラブルで睡眠状態や活動状態などの挙動に関するデータを収集し、また、被験者は健康状態を定期的にレポートする。対象者はコロナ患者を治療する医療従事者などで、感染リスクが高いグループの協力を得て進められる。

倫理的にデータを収集

この研究では4YouandMeが被験者のデータを収集するプロセスを担う。4YouandMeは非営利団体で、医療データの収集を倫理的に実行する。個人データはスマホとスマートリング「Oura Ring」(下の写真)で収取され、これらは匿名化して解析される。スマートリングは、心拍数、体温、活動状態、睡眠状態をモニターする。更に、被験者は毎日、健康状態に関する質問票に回答する。調査期間は最大6か月で、収集されたデータはEvidation Healthのプラットフォームで解析される。この研究ではアルゴリズムの検知精度がカギで、このためには大量の高品質なデータの採取が必須となる。

Oura Ringとは

Oura Ringはフィンランドの新興企業Oura Healthが開発したスマートリングで健康管理のために使われている。Jack Dorsey(Twitter創業者)やMarc Benioff(Salesforce創業者)などシリコンバレーの著名人が使っていることで有名になった。また、プロスポーツではNBA(男子プロバスケットボールリーグ)がOura Ringを使って選手の健康状態を管理することを発表した。シーズンが再開し、選手は定期的に体温測定やPCR検査を受けるが、Oura Ringを併用することで体調の異常を早期に検知する。

出典: Oura Health

スマートウォッチでコロナを検知

コロナと共棲する社会では常に感染のリスクがあり、これをリアルタイムに検知し、アウトブレークを抑え込むことが求められる。感染をウェアラブルで検知できれば、コロナ社会での安全対策の効率が格段に向上する。このため、スマートウォッチを使ってコロナ感染を検知する研究も始まった。スタンフォード大学はApple WatchやFitbitなどを使い、心拍数などのデータをAIで解析し感染者を特定する研究を進めている。

オフィス再開と東京オリンピック

在宅勤務が終わり、これから社員がオフィスに戻るが、コロナ感染をどう検知するかが問われている。この切り札がウェアラブルで、社員の感染を症状が出る前にキャッチして、隔離措置を取る。更に、2021年は、コロナの中でオリンピックが開催されるが、選手を感染から守るためにも、感染をリアルタイムで検知するツールが求められる。コロナに感染すると、スマホやスマートウォッチに警告メッセージを表示することが可能となるのか、ウェアラブルとAIを組み合わせてコロナを検知する技法に期待が集まっている。

在宅勤務の働きぶりを上司に代わりAIが監視、アルゴリズムに評価される時代が始まる

シリコンバレーで在宅勤務が定常化し、多くの社員はテレワークで仕事を進めている。企業は初めての経験である在宅勤務において、社員の仕事ぶりを把握することに苦慮している。このため、企業は在宅勤務評価ツールに着目し導入を始めた。特に、AIが管理職に代わり社員を評価する手法が注目されている。仕事の成果を公平に評価できると期待されるが、社員はAIに監視されることになる。

出典: Enaible

スタートアップが開発

このシステムを開発したのはEnaibleというスタートアップで、在宅勤務社員の生産性をAIで解析する。これは「AI-Powered Leadership」と呼ばれ、管理職向けのツールで、仕事の成果を人間に代わりAIが評価する(上の写真、左側)。また、社員の仕事ぶりに問題があれば、AIがこれを把握し、解決方法を提示する(上の写真、右側)。管理職はAIのアドバイスに沿って社員の生産性を上げる。

仕事の評価基準

AIは社員の仕事ぶりを解析し、その結果をスコアー「Productivity Scoring」で示す。スコアは三つの要素で構成され、社員は持てる能力を十分に発揮しているか(Capacity Utilization)、異なる仕事を満遍なくこなせるか(Consistence)、及び、他の社員にプラスに影響しているか(Quality Impact)が評価される(下の写真)。

出典: Enaible

問題点に対するアドバイス

AIは社員の生産性が低下していれば、仕事の進め方をアドバイスする。これは「Leadership Recommender」と呼ばれ、ワークフローの中のどのポイントで問題が発生しているかを掴み、仕事の効率を上げるためのアクションを示す。例えば、コールセンター業務で、AIは「Aさんは残業が多いが、これは朝の仕事で効率が上がっていないため」と分析する。管理職はAIの提言を受け、社員と会話して仕事の取り掛かりの効率を上げるように助言する。

AIの評価を活用する方法

管理職はAIが査定した社員の生産性スコアをみてチーム全体の仕事ぶりを把握する。生産性が高い社員にはそれに見合った報酬を出し、一方、生産性が下がった社員にはアドバイスをする。企業側としては生産性の高い社員を判別し雇用を続ける努力をするが、生産性が上がらない社員はレイオフの対象となる。生産性スコアが評価の基礎データとなり、個人の感情ではなく科学的な根拠で人事管理をすることができる。

導入事例

Enaibleによるとドバイ税関Dubai Customs Agencyとマーケティング企業Omnicom Media Groupがこのシステムを導入している。また、デルタ航空とヘルスケア企業CVS Healthがシステムの導入を検討している。Enaibleは2018年に創業した会社であるが、コロナの影響で在宅勤務が広がり、評価ツールへの需要が急増している。

AIに監視される社会に

在宅勤務で顔が見えない社員を如何に評価するかが課題になっているが、AIがその解として注目されている。一方、社員は自宅においてAIに常時監視されている状態となり、精神的なプレッシャーを感じる。また、個人の行動がAIにモニターされ、プライバシー保護の観点からも倫理的な問題がある。更に、機械学習の手法で社員の生産性を判定する際に、アルゴリズムのバイアスの問題も浮上する。社員の給与はAIの評価で決まり、企業はアルゴリズムが公平であることを説明する必要がある。

出典: ViewSonic

ツールなしで在宅勤務を運用できない

Enaibleはこれらの懸念に対して、ツールは社員を監視するものではなく、企業の人事管理ツールであると説明する。社員の行動をトラックするのではなく、成果だけを構成に評価するもので、在宅勤務体系を運用するには必須のツールとなる。いま、企業が再開し社員がオフィスに戻ってきているが、AI監視ツールはそのまま残るとの意見も聞かれる。オフィス勤務となってもAIが社員の仕事ぶりを評価することになり、人事制度そのものが大きく変わろうとしている。

【補足情報】

実装方法

Enaibleは社員が仕事の際に生成する大量のデータを解析して生産性を評価する。具体的には、社員が使っているツールのタイムスタンプをアルゴリズムが解析する。対象となるツールはメールの他に、Zoom、Slack、ブラウザーなど。Enaibleはクライアントのバックグランドで稼働し、社員がこれらのツールを使って仕事をした際に生成されるデータを解析する。

機械学習

Enaibleは収集したデータを機械学習アルゴリズム「Trigger-Task-Time」で解析する。これは各社員のワークフローを学習するメカニズムで、何がトリガーとなり、どのタスクを実行し、その作業時間を理解する。これでEnaibleは社員の仕事のスタイルを理解し、その社員の生産性スコア(Productivity Score)を算出する。

AIが新型コロナウイルスによる肺炎を検知、オープンソースとして公開され医療技術の進化に寄与

世界で新型コロナウイルスの感染が爆発的に広がっているが、その中心は欧州から米国に移ってきた。ニューヨーク州が危機的な状況にあるが、その次はカリフォルニア州といわれ、州知事はロックダウン(shelter-in-place)命令を発令した。会社や小売店やレストランは休止状態で、住民は自宅に留まることを求められ、街は静まり返っている。

出典: Linda Wang et al.

COVID-Net

新型コロナウイルスが広がる中、研究機関は病気(COVID-19)を検知するためのAIを公開した。これは「COVID-Net」と呼ばれ、患者のレントゲン写真から、新型コロナウイルスによる肺炎を検知する。病気検知のために多くのAIが開発されているが、これらはクローズドソースで一般の研究は使うことができない。これに対して、COVID-Netはオープンソースとして公開され、だれでも自由に利用できる。

データセットも公開

COVID-Netはカナダ・ウォータールー大学(University of Waterloo)とDarwinAIにより開発された。同時に、COVID-Netを教育するためのデータセット「COVIDx」も公開された。ここには13,645人の患者の16,756枚のレントゲン写真が格納されている。アルゴリズムとデータセットが公開され、これらをテンプレート(Reference Model)として研究が進み、COVID-19治療技術の確立に寄与することが期待されている。

病気の早期発見

いま、新型コロナウイルスにより病気を発症した患者を早期に特定する技術が求められているが、胸部のレントゲン写真がその手掛かりになる。COVID-19を発症した患者の肺のレントゲン写真にはこの病気に特有な形状が現れる。この特性をAIが学習しCOVID-19による肺炎を検知する。

ニューラルネットワーク構造

COVID-Net(下の写真)は胸部のレントゲン写真を読み込み(左端)、それを解析して判定を出力する(右端)。AIが下す判定は三種類で、1)感染していない(正常)、2)COVID-19肺炎、3)それ以外の肺炎となる。ネットワークのアーキテクチャは、人間がモデルの原型を決め、これをAIで最適化する手法が取られた。つまり、人間とAIがコラボしてCOVID-Netが生成された。最適化の条件として、精度は80%以上で、演算(multiply–accumulate operation、掛け算と保存の演算)の量は25億回以下とした。演算量を抑えるが、そこそこの精度がでる構成とした。

出典: Linda Wang et al.  

判定精度

実際に、データセットを使ってCOVID-19の性能を検証すると、判定精度(Accuracy)は92.4%となった。具体的な検証結果は下記のグラフィックスの通りで、縦軸が基準値(Ground Truth)で横軸が検証精度(Precision)で、箱の中の数字は件数を示す。COVID-19患者10人について検証すると、COVID-Netは8人を正しく判定し、もう一人は通常の肺炎と、もう一人は感染なしと判定していることが分かる。COVID-Netは早期にCOVID-19感染者を見つけるために使われ、また、通常の肺炎とCOVID-19肺炎を見分けるためにも活用される。

出典: Linda Wang et al.  

アルゴリズムの判定理由

この研究ではCOVID-Netは何を根拠に病気を特定したのか、その理由を説明する機能が導入された。これは「GSInquire」と呼ばれる技法で、ニューラルネットワークがオブジェクトを判定した根拠を表示する。このケースでは、COVID-Netがレントゲン写真で肺炎と判定した根拠となる部分をピンクのシェイドで示している(先頭の写真)。この部分にCOVID-19肺炎に特有なパターンがみられる。これにより、AIのブラックボックスが開かれ、医師は判定の理由を理解できる。また、COVID-Netは医師が認識していない肺炎のパターンを検知でき、新たな知見が生まれることが期待されている。また、COVID-Netのデバッグにも利用でき、アルゴリズムが誤検知する理由を把握する。

研究者のツール

COVID-Netの判定精度は92.4%とあまり高くはなく、まだ、医療ツールとして病院で使える品質とは言えない。一方、COVID-Netは研究者コミュニティにより改良が進み、精度や機能が向上し、医療ツールとして使えるよう進化する。今は研究のためのプロトタイプであるが、これをベースに新型コロナウイルスの治療技術が進むと期待される。