カテゴリー別アーカイブ: 人工知能

Googleの次のコア事業はAIヘルスケア、ビジョンAIで病気診断のプロセスを自動化

Googleはヘルスケア部門「Google Health」を設立し、医療技術開発をここに集約した。Google Healthは医療とAIを組み合わせ、高度なソリューションを開発している。Googleは次のコアビジネスとしてヘルスケアを選び、事業を大規模に展開しようとしている。

出典: Google

Google Healthとは

開発者会議Google I/OでChief Health OfficeのKaren DeSalvoがGoogle Healthの最新技術を公表した(上の写真)。Google Healthはグループ内に散在していたヘルスケア部門を統合して設立された。Google Healthはコア技術であるAIを医療技術と融合し、インテリジェントな医療システムを開発する。特に、ビジョンAIでメディカルイメージングを解析することで、病院の医療プロセスを自動化する戦略を取る。

乳がん検査を自動化

その一つが乳がん検査の自動化で、ビジョンAIががんを検知し医師の負荷を軽減する。Googleはシカゴの医療機関Northwestern Medicineと乳がんを判定するシステムの臨床試験を進めている(下の写真)。マンモグラフィー(Mammography)で撮影したイメージングから、医師が乳がんを判定するが、判定結果がでるまには時間を要す。この期間、患者は不安な日々を過ごすことになる。GoogleはこのプロセスをビジョンAIで実施し、解析時間を大幅に短縮することに成功した。

出典: Google

検知システムの概要

Googleが開発したビジョンAIは医師と同程度の判定精度を持ち、メディカルイメージングからがんを特定する。AIががんを検知すると医師にアラートが送信され、追加検査など必要な措置が取られる。これにより、患者は検査結果を即時に知ることができ、精神的な負担が大きく軽減する。また、AIが医師を置き換えるのではなく、医療ツールとして機能し、最終判定は医師が下す。

眼底検査を自動化

Googleは眼底の写真をAIで解析することで、糖尿病網膜症(Diabetic Retinopathy)や糖尿病黄斑浮腫(Diabetic Macular Edema)を特定することに成功した。これらは失明の原因となるが、早期に検知することでこれを防ぐことができる。AIは眼底の写真を解析し、出血を示す赤い斑点から糖尿病網膜症を判定する(下の写真左側;正常な眼底、右側;AIは糖尿病網膜症と判定)。

出典: Lily Peng et al.

インドで臨床試験

インドでは眼科医が少なく患者の多くが、糖尿病が原因で失明に至っている。この判定をAIで実施することで、多くの人が眼底検査を受けることができる。このアルゴリズムはGoogleとVerilyで開発され、インドのAravind Eye Hospitalで試験が実施された(下の写真)。患者は特殊なカメラ(Fundus Camera)で眼底の写真を撮影し、AIはイメージングから糖尿病網膜症と糖尿病黄斑浮腫を自動で検出する。

出典: Google

皮膚がんを検知

GoogleはビジョンAIを使って皮膚の状態を検査する技術を開発した。世界で20億人が皮膚や髪や爪に関する問題を抱えているが、皮膚科の医師の数は十分でない。多くの人がGoogleの検索エンジンで医学文献を探し、自分の皮膚の状態を調べている。しかし、文献を読み下すのは容易ではなく、Googleは皮膚病を判定するツールを開発した。

スマホアプリとして実装

これはスマホアプリとして提供され、皮膚の黒点を撮影し、AIはそれががんであるかどうかを判定する。被験者はスマホカメラで患部を撮影し(下の写真左側)、身体情報(年齢や性別や幹部の位置など)を入力し(中央)、これらをアップロードする。AIは写真イメージから、黒点ががんかどうかを判定する(右側)。皮膚がんの種類は288に及ぶが、AIはこれを正確に判定する。これは消費者向けのアプリとして提供され、問題があれば医師に相談する手順となる。

出典: Google

消費者向けヘルスケア技術開発

一方、消費者向けのヘルスケア技術はFitbit部門で開発している。Googleは人気のウエアラブルFitbitの買収を完了し、スマートウォッチなどの開発を進めている。スマートウォッチは運動量や心拍数など身体データを収集し、これをAIで解析することで健康管理に関する知見を得ることができる。Fitbitはハードウェア部門Nestに属し、ここで消費者向けのヘルスケア技術を開発している。スマートウォッチはバイオセンサーとして機能し、Apple Watchを中心に、消費者向け健康管理のウエアラブルとして市場が急拡大している。

AIに評価され解雇される日が到来!!Amazonは契約社員の人事評価を人間を介さずアルゴリズムで自動化

Amazonは契約社員の人事評価から解雇まで一連のプロセスをAIで実行する。人間が関わることなく、アルゴリズムが人事を担う。契約社員の数は400万人ともいわれ、Amazonは人間が手作業で管理することは不可能で、AIの導入が必須としている。一方、契約社員は、突然AIからメールを受信し、解雇を通告される。ソフトウェアに首を切られることは屈辱であるが、米国でAIによる人事管理が急速に広がっている。

出典: Amazon

Amazon Flexとは

Amazonの契約社員は「Amazon Flex」と呼ばれ、オンデマンドで柔軟に勤務することができ(上の写真)、その数が増えている。Amazonはこれらの社員をAIで管理する方式を取っている。契約社員は、時間が空いている時に、Amazonの商品を配送する運転手として勤務する。Uberのドライバーのように、自分のクルマを使って商品を配送する。正社員や運送企業に加え、Amazon Flexがラストマイルを支えている。

オンデマンドで勤務

Amazon Flexは配送の全てのプロセスを専用アプリで実行する。契約社員は空き時間に仕事を申し込む。時間帯ごとに配送地区が示され、希望のスロットを選ぶ (下の写真左側)。次に、商品を積み込む配送センターが示され(中央)、ここに出向きそれらをクルマに搭載する。スマホに、配送先の住所とルートが示され、これに従って配送する(右側)。

出典: Ridesharing Driver

AIが勤務状態を管理

業務は3時間のスロットで区分けされ、40件程度をこなし、時給は18ドルから25ドル。仕事は指示されたスケジュール通り商品を配送したかで評価される。また、消費者の指示にそって配送できたかも評価の対象となる。例えば、盗難防止のために、玄関の鉢植えの背後に商品を置くよう指示するケースが多い。AIは商品が配送された時間や消費者のフィードバックを元に勤務を評価し、その結果が契約社員に伝えられる。(下の写真:配送スタッフが商品を届ける(左側)。Amazonから確かに配送したことを示す写真が送られ(中央)、パッケージを受領したら配送に関するフィードバックを送る手順となる(右側)。これらのデータで社員の勤務評価が決まる。)

出典: VentureClef

AIに解雇される事例

仕事の評価が低く契約社員がAIに解雇される事例は少なくない。Bloombergなどの報道によると、契約社員が時間通りに商品を配送できていないとして、AIは雇用を継続することが難しいと判断し解雇を通告する。解雇通告は人間ではなく、AIが契約社員にメールを送信し、評価結果を説明し、解雇を告げる。解雇が不当である場合は、契約社員はその理由を申し立てることができるが、判定を覆すことは難しい。

Amazonの作戦

Amazon Flexアプリは世界で400万人がダウンロードし、米国だけでも290万人が使っている。Amazonは、大量の契約社員を管理するにはAIの導入が必須で、社員の勤務評価から解雇まで、一連の人事プロセスを自動化する必要があると主張する。一方、AIで人事管理を自動化するのはこれが初の試みで、Amazonは問題が発生することは事前に予測していた。社会問題となることは覚悟の上で、問題が発生した都度ソフトウェアを改良し、公正に人事管理ができるシステムの構築を進めている。

ホワイトカラーに広がる

米国で社員の仕事ぶりをAIで管理する動きが広がっている。対象は商品配送の契約社員に留まらず、定型業務における人事管理にAIが導入されている。コールセンターのオペレータの業務内容をAIで評価する。また、コロナが終息すると企業はハイブリッド勤務に移行し、多くの部分をリモートワークが占めることになる。顔の見えない社員をどう評価するかの議論が始まり、AI人事評価技術に注目が集まっている。

AIは公平に判定できるか

AIはビッグデータを元に判定を下すが、問題となるのがアルゴリズムの精度である。銀行ローンをAIが判定するが、性別や人種により判定が偏り、女性が不利になるケースが少なくない。AIが人間の介入なしに社員を解雇するが、この人事評価は正しいのかが問われる。今の法令では、Amazonはアルゴリズムが公平であることを証明する義務はない。AIの精度を誰が保証するのか、解決すべき課題は少なくない。

出典: Amazon

AIに評価される社会

人間の能力をアルゴリズムで評価することに対しては根強い嫌悪感がある。人間に解雇されるのも苛立たしいが、AIから解雇のメールを受け取ることはなおさらである。しかし、人事管理におけるAIの役割は広がり、多くの企業はAIで人材採用を始めている。リモートワークが広がる中、AIとの人事面接で採否が決まるケースは少なくない。ついに、AIが社員を採用し、仕事ぶりを評価し、解雇する社会が到来した。

国民から信頼されるAIを探求、米国政府はAIの信頼性を指標化し計測する研究を開始

セキュリティの国際会議RSA Conference 2021(#RSAC)がオンラインで開催された。AIが社会に幅広く浸透し、その効用が理解されると同時に、国民はAIに漫然とした不安を抱き、その信頼性が低迷している。この問題に対処するため、米国政府はAIの機能を定義し、その信頼性を査定する研究を始めた。これはAIの品質を評価する試みで、医薬品と同じように、AI製品に品質保証書を添付する方策を検討している。

出典: National Institute of Standards and Technology

アメリカ国立標準技術研究所

RSA Conferenceでアメリカ国立標準技術研究所(National Institute of Standards and Technology, NIST)のElham Tabassiがこの取り組みを説明し、信頼できるAI「Trustworthy AI」に関する研究成果を公表した。社会でAIが幅広く使われ、生産性が向上し、消費者は多大な恩恵を受けている。しかし同時に、失業者が増え、所得格差が増大しAIの問題点が顕著になっている。このため、NISTはAIの危険性を定量的に把握し、共通の理解を持つための研究を進めている。

AIの品質保証書

NISTはAIの信頼性を計測し、それを向上させるプログラム「Fundamental and Applied Research and Standards for AI Technologies (FARSAIT)」をスタートした。信頼できるAIとは何かを定義し、それらの要素を計測し、AIの安全性に関する指標を制定することを目標とする。国民はAIに関し漠然とした不安を抱いているが、NISTはこれを科学的に定義し、AIの品質保証書を制定することがゴールとなる。

品質保証書のドラフト

既に、NISTはAIの信頼性を査定するための試案を公開している。これは「Trust and Artificial Intelligence」と呼ばれ、NISTの考え方を纏めたプロポーザルで、一般からの意見を求めている。このプロポーザルがたたき台となり、寄せられた意見を集約し、最終的なAI査定方法を制定する。

出典: National Institute of Standards and Technology

AIの信頼性を構成する要素

まず、AIの信頼性を構成する要素は何かを突き詰めることが最初のステップとなる。NISTはAIの信頼性は9つの要素で構成されるとしている(先頭の写真、枠の中)。「精度」(判定精度が高いこと)、「バイアス」(判定精度に偏りがないこと)、「説明責任」(判定理由を説明できること)、「プライバシー」(個人のプライバシーが保護されること)、「堅固」(システムが安定して稼働すること)などが構成要素になるとしている。

AI査定方法のモデル

NISTはAIの信頼性を評価するモデル「Perceived System Trustworthiness」を提案(上の写真)。これは、ユーザ(u)がシステム(s)でコンテンツ(a)を処理する際に、システムをどの程度信頼できるかというモデル(T(u,s,a))となる。このモデルは、ユーザ特性(U)とシステムの技術的信頼性(PTT、Perceived Technical Trustworthiness)から構成される。ユーザ特性とは利用者の主観で性別や年齢や性格や今までの経験などに依存する。

システムの技術的信頼性

問題はシステムの技術的信頼性(PTT)で、これをどう査定するかが課題となる。システムは上述の通り9の要素で構成され、PTTはこれら9の要素の重みづけ(Perceived Pertinence)と各要素の重要度(Perceived Sufficiency)で決まる。つまり、AIシステムの技術的信頼性は、対象とするコンテンツに対し、9の要素を査定し、統合した値で決まる。

AI信頼性を評価する事例

NISTは、AIの信頼性を評価する事例として、1)AIがガンを判定するケースと、2)AIが音楽を推奨するケースを提示している。前者は、画像解析AIが患者のレントゲン写真からガンを判定するケース。後者は、音楽ストリーミングでAIが視聴者の履歴を解析し好みの曲を推奨するケース。

9要素の評価

AIの信頼性は9の要素で構成されるが、その重要度は対象とするコンテンツにより決まる。ガン判定AI(下のグラフ、左側)と音楽推奨AI(右側)では各要素の重みが異なる。例えば、判定の「精度」に関しては、ガン判定AIでは極めて重要であるが、音楽推奨AIでは厳しい精度は求められない。仮に、AIの判定精度が90%と同じでも、ガン判定AIでは不十分と感じるが、音楽推奨AIではこれで十分と感じる。

出典: National Institute of Standards and Technology

AI信頼性評価結果:「精度」のケース

NISTは、9項目の中の「精度」に関して試算した結果を示している。どうちらも「精度」が90%であっても、システムの技術的信頼性(PTT)は大きく異なる(下のテーブル、右端のカラム)。ガン判定AIではPTTが0.011で、音楽推奨AIではPTTが0.092となる。つまり、ユーザは音楽推奨AIに対しては信頼感を感じるが、ガン判定AIに対しては信頼感は90%下落する。

出典: National Institute of Standards and Technology  

AIシステム全体の評価

NISTの試案では、AIが判定する対象が何であるかが、ユーザの信頼感に大きく寄与する。音楽推奨AIのように、判定が外れても大きな問題がない場合は、AIへの評価は甘くなる。一方、ガン判定AIでは、判定が外れると生死にかかわる重大な問題となり、AIに対し厳格な精度を要求する(先頭の写真)。このように、AIの信頼性は対象コンテンツの内容により決定される。上記は「精度」に関する信頼性の結果で、その他8の要素を評価して、それらを統合してAIシステムに対する最終評価が決まる。

最終ゴールは法令の制定

これはNISTの試案で、このモデルを使い実際に計測して、AIの信頼性が数値として示される。これから、一般からの意見を取り込み、AIの信頼性に関するモデルが改良され、最終案が出来上がる。これがAI品質保証書のベースとなり、NISTはこれを法令で制定することを最終ゴールとしている。最終的にAI品質保証書に関する法令が制定されると、AI企業はこの規定に沿って対応することが求められる。

出典: Pfizer Inc. / BioNTech Manufacturing GmbH  

AI企業の責務

どのような内容になるかは今の段階では見通せないが、AI製品に機能概要や制限事項や信頼性など、品質に関する情報を添付することを求められる可能性もある。医薬品を買うと薬の効能や副作用や注意点が記載された説明書が添付されている(上の写真、Pfizer製コロナワクチンの品質保証書の事例、効用や副反応などが記載されている、ワクチン接種時に手渡された)。これと同様に、AI製品を販売するときは、企業は製品説明書や品質保証書を表示することを求められる可能性が高まってきた。

AIで高性能スパムフィルターを開発、言語モデルGPT-2がスパムを生成しアルゴリズムを教育

セキュリティの国際会議RSA Conference 2021(#RSAC)が2021年5月、バーチャルで開催された。今年は、AIを活用したセキュリティ技術に注目が集まり、多くのソリューションが登場した。一方、AIを実装したセキュリティ製品の効果は限定的で、市場の期待に沿うソリューションは少ないことも指摘された。米国でランサムウェアによる被害が拡大する中、AIがサイバー攻撃を防御できるのか、その実力が問われている。

出典: RSA

言語モデルとスパムフィルター

AI言語モデルの開発でブレークスルーが起こっている。OpenAIは大規模な言語モデル「GPT-3」を開発し、AIが言葉を理解し自然な文章を生成できるようになった。情報セキュリティ企業は言語モデルに着目し、AIでサイバー攻撃を防御する手法を開発している。セキュリティ市場のトップベンダーであるSophosはAI研究機関「Sophos AI」を設立し、機械学習や大規模AIの研究を進めている。Sophosは言語モデルで高精度なスパムフィルターを生成する技法を発表した。

Sophosの研究概要

この研究は、AIでスパムを生成し、これを使ってスパムフィルターのアルゴリズムを教育するというもの。スパムフィルターの開発では高品質な教育データの整備が必要であるが、人間に代わり言語モデルがスパムを生成する。AIが生成したスパムでAIアルゴリズムを教育すると、高精度でスパムを検知でき、開発プロセスが大幅に効率化される。この研究ではOpenAIが開発した中規模の言語モデル「GPT-2」が使われた。

スパムとは

スパムとは受信者の意向を無視して送られるメッセージで、大量に配信され、宣伝広告を目的とする。また、フィッシングやマルウェアを拡散する目的でも使われ、迷惑メールだけでなく、サイバー攻撃の媒体としても使われる。これらのスパムを収集して教育データとして使うが、SophosはこれをGPT-2で生成する技術を開発した。(下のテーブル: GPT-2で生成したスパム。)

出典: Younghoo Lee  

スパム検知技術

スパムフィルター開発の歴史は長く様々な技法が登場している。フィルターが誕生した当初は、特定用語や発信者のアドレスなどをキーにメッセージを選別した(Signature方式)。今では機械学習が主流となり、言葉の重みを統計的に査定する方式(term frequency–inverse document frequency)や異なる手法を併用するモデル(Random Forest Modelなど)が使われている。

ニューラルネットワーク

更に、ニューラルネットワークを使い、スパムフィルターの精度を上げる研究が進んでいる。ニューラルネットワークとして「LSTM(Long Short-Term Memory)」や「CNN(Convolutional Neural Network)」や「Transformer」が使われ、単語の関係を把握してスパムを判定する。特に注目されているのがTransformerで、単語の意味からその関係を把握する(Attentionベースと呼ばれる)。

Transformerベースの言語モデル

TransformerはGoogleが開発した技術でこれが言語モデルのブレークスルーとなった。GoogleはTransformerを実装した言語モデル「BERT」を開発し高度な言語機能を実証した。また、OpenAIはTransformerを実装した「GPT」を開発し、最新モデル「GPT-3」は人間レベルの言語能力を示した。Sophosはこの中で中規模モデル「GPT-2」を使ってスパムフィルターを開発した。

教育データの生成

スパムフィルター開発ではアルゴリズムを教育するためのデータの生成で時間を要し、システム開発で一番時間を要するステップとなる。スパムのデータ数が限られるため、通常は人間がサンプルを改造して件数を増やす(Data Augmentationと呼ばれる)。具体的には、スパムの文字を同意語で置き換え、また、文字をランダムに挿入・削除するなどの操作をする。このマニュアル作業に代わり、言語モデルGPT-2が高品質なスパムのサンプルを生成する。

GPT-2の制御技術

一方、GPT-2は文章を生成するAIであるが、生成された文章はランダムで、必ずしもスパムとして使えるわけではない。このため、言語モデルが生成する内容やスタイルを制御する技術が必要となる。Sophosは「PPLM (Plug and Play Language Model)」と呼ばれる技法を使い、目的に沿ったスパムを生成している。(下のグラフィックス、言語モデルのパラメータを変更し目的に沿った内容の文章を生成。下記はポジティブなトーンの文章を生成する事例。)

出典: Uber Research

PPLMとは

PPLMとはUberの研究所Uber Researchにより開発された技法で、GPT-2など言語モデルに制御機構(Attribute Models)を付加し、目的に沿った文章を生成する。制御機構でセンティメントを指定するとそれに沿った文章が生成される。(下のテーブル、Positive及びNegativeと示された文章で、ポジティブ・ネガティブなトーンとなる)。また、トピックスを指定するとこのテーマで文章が生成される。(下のテーブル、Science及びPoliticsと示された文章で、科学及び政治のテーマに沿った文章が生成される)。因みに、PPLMで何も指定しないとニュートラルな文章が生成される(下のテーブル、[-]と示された部分)。

出典: Uber Research

生成されたスパムとハム

SophosはGPT-2をPPMLで制御してスパム生成した(先頭から二番目のグラフィックス)。このケースではGPT-2は「Santa calling! Would your little」という文字に続くスパムを生成した。また、GPT-2はスパムだけでなく通常のメッセージ(Hamと呼ばれる)を生成することもできる(下のグラフィックス)。このケースではGPT-2に「A lot of this sickness」に続くハムを生成するよう指示した。

出典: Younghoo Lee

スパム検知アルゴリズムの教育

前述の通り、GPT-2はスパム検知フィルターとして機能する。同じアルゴリズムがスパムを生成すると同時にスパムを検知する。GPT-2にテキストを入力し、スパムかどうか尋ねると、その判定結果を回答する。生成したスパムでGPT-2のアルゴリズムを教育すると、人間が手作業で収集・編集したスパムで教育するより高い判定精度を示した。GPT-2で教育データの生成を自動化でき、また、検知精度も向上することが分かった。

AI対AIの戦い

今ではボットがスパムメッセージを生成し偽情報を拡散し消費者を攻撃する。これらのメッセージをGPT-2が解析し、スパムを見つけ出し、それをフィルタリングする。スパムフィルタリングはAIとAIの対決で、如何に高度なアルゴリズムを使うかで勝敗が決まる。このため、GPT-2を最新のスパムで教育しアルゴリズムをアップデートする必要がある。また、次のステップとしては、より高度な言語モデルを使いスパムフィルターの精度を上げることが重要となる。

Microsoftは話し言葉でプログラミングできる技法を公開、OpenAIと共同で大規模AIの開発を加速

Microsoftは2021年5月、話し言葉でプログラミングできる技術を公開した。エンジニアが言葉で指示すると、AIはこれをプログラム言語に変換する。このAIは「GPT-3」と呼ばれ、言葉を理解する言語モデルで、OpenAIにより開発された。OpenAIはGPT-3をMicrosoftに独占的にライセンスしており、これが最初の商用モデルとなる。

出典: Microsoft

自然言語でプログラミング

Microsoftは開発環境「Power Apps」に言語モデル「GPT-3」を組み込み、話し言葉でプログラミングできる技術を開発した。アプリケーション開発ではプログラム言語を使ってコーディングするが、このシステムは自然言語でプログラミングできる(上のグラフィックス)。例えば、「Show me the Customers from U.S whose subscription is expired(サブスクリプションが切れた顧客を表示)」と指示すると(右上の枠)、システムはこれをプログラムに変換する(右下の部分)。プログラム言語は「Power Fx」で、ここでは二つのモデルが示され、開発者はこれをクリックするだけでコーディングが終了する。

ノーコード開発プラットフォーム

このシステムを使うと、プログラミングの知識がなくても誰でもアプリをコーディングできる。Microsoftはこの開発モデルを「Citizen Developers」と呼び、誰もがコーディングできるようになり、プログラム開発者の数が増えると期待している。一般に、コマンドではなくグラフィカル・ユーザインターフェイスでプログラミングする方式は「No-Code Development」と呼ばれているが、MicrosoftはこれをAIによる自然言語の変換で実現した。

Microsoft Power Appとは

MicrosoftはNo Code方式をPower Appsに実装した。Power Appsは簡単にアプリ開発できるフレームワークで、最小限のプログラミング技術でコーディングが可能となる。Visual Studioはプロ開発者向けの開発環境であるが、Power Appsは万人が使えるシステムとなる。

開発方式の進化

Power Appsの投入で開発方式が大きく変わっている。従来は、アプリを設計・開発・試験・運用の順序で行う方式「Waterfall Development」が主流であったが、今ではアジャイル方式「Agile Development」(下のグラフィックス)に移っている。この方式は、短期間でこのサイクルを繰り返し、プロトタイプ(minimum viable product)を開発する。

出典: Microsoft  

新型アジャイル方式

これに対して、MicrosoftはPower Appsを使い、プログラミングと同時にユーザインターフェイスを開発できる「WYSIWYG (what you see is what you get)」方式を提唱した。この方式では、即座にプロトタイプが完成し、これをベースに新機能を追加しバージョンアップを繰り返す(下のグラフィックス)。Microsoftはこの方式を新型アジャイル方式「Agile V2 Development」と呼んでいる。

出典: Microsoft  

Low CodeからNo Codeへ

Power Appsのプログラミング技法は前述の通り「Low-Code Development」と呼ばれ、最小のコーディングでプログラムできる。Power Appsのプログラム言語は「Power Fx」と呼ばれ、Microsoft Excelでマクロを書くように最小限のコーディングでアプリを開発する。(下のグラフィックス)。

出典: Microsoft  

更に、Power AppsにGPT-3が統合され、今度は、コーディングすることなくアプリを開発できるようになった。言葉で指示すると(下のグラフィックス)上述のPower Fxコードが生成される。この方式は「No-Code Development」と呼ばれ、幅広い普及が期待されている。

出典: VentureClef  

MicrosoftとOpenAIとの提携

MicrosoftはOpenAIと共同開発を進めてきたが、2020年9月、GPT-3を独占的にライセンスを受けることで合意した。その対価として、MicrosoftはOpenAIにGPT-3開発のためのAIスパコン環境を提供する。MicrosoftのAIスパコンは世界ランキング5位の性能を持つ。GPT-3のニューラルネットワークは巨大で、大規模AIを開発するためにはスパコンが必要となる。

GPT-3とは

GPT-3は言語モデル「Autoregressive Language Model」で、入力された言葉に基づき、それに続く言葉を予測する機能を持つ。シンプルな機能であるが、これが言葉を理解する本質的な能力となり、文章の生成や言語の翻訳や文章の要約ができる。MicrosoftはGPT-3で言葉をプログラム言語に翻訳する技術を開発した。GPT-3は世界最大規模のニューラルネットワークで構成されたAIで、けた違いに高度な言語能力を示す。