作成者別アーカイブ: nad00251

手数料ゼロのネット証券Robinhoodが大ブーム、やはりタダで使えるサービスほど高いものは無い

コロナの感染拡大でネット証券「Robinhood(ロビンフッド)」の会員数が急増している。アプリはお洒落なデザインで使いやすく、手数料はゼロで、個人の株式投資への敷居がぐんと下がった。手数料ゼロで利益を出せるのは訳があり、その背後で高度な情報通信技術が使われている。会員の注文は極めて短時間で決済できる超高速取引で処理され、これが収益の源泉となっている。

出典: Robinhood

Robinhoodとは

Robinhoodはカリフォルニア州メンロパークに拠点を置く新興企業で証券取引のプラットフォームを提供している。Robinhoodは手数料ゼロのネット証券として2015年に事業をスタートし、ディスラプターとして証券取引ビジネスを一新した。ミレニアル世代を中心に人気が沸騰し、2020年には会員数が1300万人を超えた。

人気の秘密

Robinhoodの人気の秘密は証券取引数料が無料であることと、アプリのデザインが若者世代のテイストにマッチしていることがあげられる。白をベースとしたシンプルなデザインで、フレッシュな印象を受ける(下の写真)。今までのフィンテックアプリとは異なり、操作性も大きく向上した。更に、0.1株から購入できるため初心者でも安心して取引できる。

出典: Robinhood

アプリ利用方法

Robinhoodはスマホアプリから利用する。最初に、会員登録のプロセスで個人情報などを入力し、銀行口座をリンクする。株を購入するときは銘柄を指定し、株数と単価とオプションを指定する。例えば、テスラ「TSLA」1株を330ドルでMarket Orderで購入するなどと指定する。このほかに、Limit Orderを指定すると条件を満たす価格で購入できる。

ビジネスモデル

Robinhoodは利益を得る仕組みを説明している。それによると、株式やオプションの手数料はゼロであるが、信用取引口座(Margin Account、Robinhoodから資金を借りて投資する口座)は有償で、会員は手数料(5ドル/月)と金利(年率5%)を支払う。また、Robinhoodは会員の余剰現金を貸付事業に展開している。これらがRobinhoodの収益を構成すると説明している。

もう一つのモデルが存在

これだけではなく、Robinhoodは「Payment for Order Flow」と呼ばれる手法で収益をあげていることが判明した。Robinhoodはこのモデルについては公開しておらず、証券取引委員会(Securities and Exchange Commission)が捜査に乗り出した。Payment for Order Flowは合法的な手法であるが、Robinhoodはこの事実を会員に公開していなかった。これが情報開示義務違反に該当する可能性があるとされる。

Payment  for Order Flowとは

Payment  for Order Flowとは、顧客の注文をブローカー間で超高速で取引し、利益を上げる手法を指す。Robinhood会員が株式やオプションを発注すると、これがそのまま証券取引所で売買されるのではなく、ブローカー(Market Maker)に渡る。Market Makerとは金融サービス企業で、お互いに買い値(Bid)と売り値(Ask)を提示し、相対取引を実行する機関を指す。Market MakerはRobinhoodからの注文を受け、他のMarket Makerと取引し、売り買いの幅(Bid-ask spread)で利益を上げ、その後、注文の処理結果をRobinhoodに返す。

Payment  for Order Flowの流れ

例えば、Robinhood会員がTesla株を330ドルで買う注文を出すと、それがMarket Makerに渡る。Market Makerは他のMarket Makerが提示する価格をスキャンし、好条件の提示価格を見つける。例えば、Tesla株を他のMarket Makerから329ドルで買い、それをRobinhoodに330ドルで売り、1ドルの利益を上げる。

出典: Robinhood

Robinhoodが利益を得る仕組み

RobinhoodはMarket Makerから利益に応じた手数料を受け取り、これがRobinhoodの利益となる。SECの資料によると、Robinhoodは2020年4月-6月期にMarket Makerから1億8026万ドルの手数料を受け取っている。これがRobinhoodの収益を支え、手数料無料でネット証券を運営できる理由となる。

Market Makerと高速取引

Robinhoodは提携しているMarket MakerはCitadel SecuritiesやVirtu Financialなどであることを公開している。これらは証券取引を極めて短時間で実行できる高速取引(High-Speed Trading)と呼ばれるシステムを構築し事業を展開している。トランザクションを超高速で実行し、他社より有利な条件で証券を売買し、これがPayment  for Order Flowが成立する基盤となる。

他のネット証券も利用

Payment  for Order FlowはRobinhoodだけでなく、他のネット証券も利用しており、業界では取引モデルとして定着している。E-TradeやTD AmeritradeはRobinhoodに追従して証券取引手数料をゼロとしたが、これらネット証券もPayment  for Order Flowを使って利益を上げている。

Robinhoodの特殊性

ただ、Robinhoodが受け取る手数料が他社に比べて高いことが議論となっている。Robinhood会員は株取引を始めたばかりのアマチュアが多く、これが高い手数料に繋がっているとの見方もある。プロの投資家と違いアマチュア投資家は甘い条件で取引を発注するので、スプレッドが大きくなり、Market Makerが利益を上げやすい構造になる。Robinhoodが投資家初心者を勧誘する理由はここにある。

出典: Robinhood

ネット証券の新たなビジネスモデル

GoogleやFacebookをタダで使えるが、その背後で個人情報が集められ、広告収入に結び付いていることを消費者は理解している。ネット証券も同様に、タダで株を売買できる代わりに、利用者の注文から利益が絞り出されることを理解する必要がある。この手法が倫理的でないとの議論もあるが、ネット証券の新しいビジネスモデルになっている。

ネット証券の新たなイメージ

Robinhoodの功績はミレニアル層など若い世代に投資の魅力を説いたことにある。若者はリーマンショックなどを経験し、株式投資に消極的な世代とされてきた。Robinhoodはこれら世代を対象に、ブログ「Snacks」で株式市場の動向を発信している(冒頭の写真)。食べやすいスナックという意味があり、複雑な政治・経済情勢を消化しやすい形で解説する。ポッドキャスト「Snacks Daily」はこれをヒップホップな音楽に乗せて若者に語り掛ける。この軽快さがRobinhoodの顔となり、アマチュア投資家の案内人として資産形成を支援する。

イーロン・マスクはNeuralinkのライブデモを実施、脳にチップをインプラントし老化を抑止する

Neuralinkはブタの脳にチップ(下の写真)を埋め込み、ニューロンのシグナルを読み出すデモを実施した。これは脳マシンインターフェイスと呼ばれ、脳内にインプラントしたチップと交信する。この技術を使うことで、事故で肢体を動かせなくなった患者を救うことができる。また、加齢とともに記憶力が落ちるが、チップがこれを補強する。将来的には、チップがAIと交信し、人間のインテリジェンスを飛躍的に高めることができると期待される。

出典: Neuralink

Neuralinkとは

Neuralinkはサンフランシスコに拠点を置く新興企業で、脳科学に基づく応用技術(Neurotechnology)を開発している。脳にインプラントするチップ「Link」(上の写真)を開発し、これが脳とマシンのインターフェイスを形成する。Neuralinkは2016年にイーロン・マスク(Elon Musk)により創設され、ステルスモードで開発を続けてきた。大学の脳科学研究者などから構成され、脳に埋め込む“ウエアラブル”を開発することを目標にしている。

発表イベント

Neuralinkは2020年8月28日、最新技術を紹介するイベントを開催し、その模様がストリーミングで配信された(下の写真、イーロン・マスクとチップをインプラントするロボット)。この会場でブタを使ってNeuralinkのデモが実施された。チップをインプラントしたブタの脳のシグナルをスマホで読み取り、それが大型モニターに表示された。

出典: Neuralink

Neuralinkを開発する意義

Neuralinkは脳と脊椎の障害を解決することをミッションとする。人間は年を取るにつれて脳と脊椎に問題が発生する。加齢により記憶機能が低下し、不眠症などの障害が起こる。また、脳や脊椎に損傷を受けると肢体の麻痺を引き起こし、体を動かすことができなくなる。Neuralinkは脳にチップをインプラントする技術で、これらの病気を治療することを目標にしている。

大学などでの研究

脳とマシンのインターフェイスの研究は早くから進んでおり、大学などでデバイスが開発されている。その代表が「Utah Array」(下の写真)で、ニューロンのシグナルを計測するデバイスとして使われている。脳にチップ(Brain Chip)を埋め込み、脳のシグナルを箱状のデバイスで計測する。失明した人がこの技術を使うことで視覚を取り戻したとの報告もある。ただ、頭部にデバイスを装着し、マシンとの接続にはケーブルが使われ、日常生活で使うには支障がある。

出典: Neuralink

Neuralinkのアーキテクチャ(2019年)

これに対してNeuralinkはデバイスやケーブルを必要としないコンパクトな技術を開発している。Neuralinkは2019年7月、プロトタイプを公開した。Neuralinkは脳にインプラントされたセンサー(N1 Sensor)からのシグナルを耳の背後に着装されたデバイスで受信する仕組みとなる(下の写真)。

出典: Neuralink

Neuralinkのアーキテクチャ(2020年)

今年はこの技術が進化し、耳の背後に装着するデバイスは不要となり、インプラントされたチップ「Link」のシグナルを直接スマホで受信する。チップは円盤状のセンサーで(下の写真)、これを脳内にインプラントする。センサーは自律型で、脳のシグナルをセンシングし、それをBluetoothでスマホに送信する。

出典: Neuralink

Linkのシステム構成

Linkは脳のシグナルを受信するため1024のチャネルから構成される。チップから1024本の極細のワイヤーが出ており(下の写真最下部、デバイスから出ている幅広のリード)、先端の電極の部分を大脳皮質に差し込む。Linkのサイズは23mm x 8 mmで、日本の10円硬貨程度の大きさとなる。Linkは加速度計や温度計などのセンサーを内蔵し、バッテリーで稼働する。稼働時間は1日で、バッテリーはワイアレスで充電する。

出典: Neuralink

インプラントのプロセス

Linkをインプラントするためには病院で外科手術を受けることとなる。頭蓋骨に円形に穴をあけ、そこにLinkをインプラントする(下の写真)。Linkを着装したあと、切り出した頭蓋骨を戻し、穴を特殊な接着剤で塞ぐ。所要時間は1時間で局所麻酔で実施する。

出典: Neuralink

インプラントロボット

脳にLinkをインプラントするプロセス全てをロボット(Surgical Robot、下の写真)で行う。ロボットは頭蓋骨をくり抜き、Linkの電極を脳の表皮に差し込む。ロボットはコンピュータビジョンを使い、大脳皮質で血管が通っていない場所を探し、ここに電極を差し込む。

出典: Neuralink

Linkから出ている線状のワイヤーが表皮に差し込まれる(下の写真)。ロボットは血管の部分を避け、針で縫物をするように電極を挿入する。これにより出血が無く表皮を傷つけないで電極を差し込むことができる。電極は皮質から5mmの深さに差し込まれる。

出典: Neuralink

ブタを使ったデモ

発表イベントではLinkをインプラントしたブタを使って脳のシグナルを計測するデモが実演された。ブタにインプラントしたLinkがニューロンのシグナルを計測し、それをブルートゥース(BLE)でスマホに送信する。受信したシグナルが大型モニターに表示された(下の写真)。このシグナルが脳の活動状況を示している(ドットの部分がシグナル特性で青色のグラフはそれを合計した値)。青色のグラフは、ブタの鼻が何かに触れた時、脳のシグナルがピークになることを示している。

出典: Neuralink

シグナルの意味を理解する

ニューロンのシグナルを機械学習の手法で解析することでその意味を理解する手法も示された(この部分は事前に録画されたビデオ)。ブタをトレッドミルで歩行させ(下の写真右側)、そのシグナルを解析した(下の写真左側)。解析したシグナル(太線のグラフ)はブタの体(肩や足首など)の動きを予想したもので、これが実際の動き(細線のグラフ)と一致することが示された。つまり、ニューロンのシグナルを解析することでアクションの意味を理解できることを意味する。

出典: Neuralink

ニューロンにシグナルを入力

Linkから脳にシグナルを入力すると、脳のニューロンが活性化されることが示された(下の写真、事前に録画されたビデオ)。電極(赤色の線)にシグナルを入力すると、周囲のニューロン(緑色の部分)が活性化する。特定のニューロンを活性化することで脳をコントロールし、病気の治療などに応用される。

出典: Neuralink

人間へのインプラント

Neuralinkはアメリカ食品医薬品局(FDA)にこのデバイスを医療機器として申請し、認可を受ける手続きを進めている。FDAは2020年7月、NeuralinkをBreakthrough Device(難病を治療する機器)と認定し、認可プロセスが加速された。NeuralinkはFDAの認可を受け、安全技術を確立し、人間へのインプラントを計画している。

難病治療から脳機能の補強まで

Neuralinkのゴールは脳や脊椎に障害がある患者の治療で、頚髄損傷(Tetraplegia)で手足を動かせない患者がキーボードでタイプできることを目指している。1分間に40語のタイプができることを目標とする。また、一般消費者が脳機能をエンハンスするためにNeuralinkをインプラントする方式も検討されている。レーシック(Lasik)で視力を矯正する手術が普及したように、Neuralinkで記憶力を補強するなど、脳機能をエンハンスする研究を進めている。

Neuralinkの評価

Neuralinkがデモした技術について評価が分かれている。既に、動物や人間の脳へのインプラントの研究は進んでおり、マスクがデモした内容は新鮮味に欠けるという指摘がある。一方、Linkは既存のデバイスより大幅に小型軽量化が進み、更に、ニューロンのシグナルを高解像度で把握できる点が評価されている。脳インプラント技術が研究室を出て、商用化に一歩近づいたことを意味する。

次のステップ

次のステップはニューロンのシグナルを解析しその意味を理解することとなる。脳のシグナルとアクションの関係は解明が進んでおらず、シグナルが何を意図するのか未開の部分が多い。ニューロンの特定のグループがどのような機能を司っているかの研究が進むこととなる。

出典: HaeB

究極の目標

マスクは、究極の目標はNeuralinkがAIとのインターフェイスを司り、人間のインテリジェンスを補強することと述べている。一方、マスクはOpenAIを創設し、人間レベルのAIの開発を進めている。NeuralinkとOpenAIの関係についてのコメントは無かったが、脳科学とAIの研究が並行で進んでおり、大きなブレークスルーが起こる兆しを感じた。(上の写真、OpenAIとNeuralinkは同じビルにオフィスを構えている。)

OpenAIの言語モデルGPT-3は人間のように少ない事例で学習、AIを巨大にすると人間になれるか

OpenAIは世界最大規模のAI「GPT-3」を公開した。GPT-3は言葉を生成するAIであるが、数少ない事例で言語能力を習得することができる。また、GPT-3は文章を生成するだけでなく、翻訳や質疑応答や文法の間違いの修正など、多彩な機能を習得する。AIの規模を大きくすることで、人間のように少ない事例で学習し、多彩な言語能力を身につけた。

出典: OpenAI

GPT-3の概要

OpenAIはGPT-3について論文「Language Models are Few-Shot Learners」で、その機能と性能を明らかにした。GPT-3は世界最大規模のAIで1750億個のパラメータから構成される。GPT-3は言語モデル(autoregressive language model)で、入力された言葉に続く言葉を推測する機能を持つ。多くの言語モデルが開発されているが、GPT-3の特徴は少ない事例で学習できる能力で、これは「Few-Shot Learning」と呼ばれる。

Few-Shot Learningとは

Few-Shot LearningとはAIが数少ない事例で学習するモデルを指す。例えば、英語をフランス語に翻訳する事例を三つ示すと、AIは英仏翻訳ができるようになる(下の写真左側)。これを進めると、一つの事例で機能を習得し、これは「One-Shot Learning」と呼ばれる。究極のモデルは、事例を示すことなく言葉で指示するだけでAIが英仏翻訳を実行する。これは「Zero-Shot Learning」と呼ばれる。GPT-3はこれらの技法を獲得することが研究テーマとなる。

出典: Tom B. Brown et al.

GPT-3はアルゴリズム最適化が不要なモデル

これは、GPT-3は最適化教育(Fine-Tuning)を必要とせず、基礎教育(Pre-Training)だけで学習できることを意味する。通常、言語モデルは基礎教育を実施し、次に、適用する問題に応じてAIを最適化する。例えば、英語を仏語に翻訳するAIを開発するには、まず基礎教育を実施し、次に、英語と仏語のデータを使いモデルを最適化する(上の写真右側)。GPT-3はこのプロセスは不要で、基礎教育だけで英語を仏語に翻訳できる。

GPT-3の異なるモデル

GPT-3は「Transformer」というニューラルネットワークから構成される言語モデルである。Transformerとは2017年にGoogleが発表したアーキテクチャで、従来モデル(recurrent neural networks)を簡素化し、性能が大幅に向上した。GPT-3はニューラルネットワークのサイズと性能の関係を検証するために8つのモデルが生成された(下のテーブル)。最大構成のシステムが「GPT-3」と呼ばれ、1750憶個のパラメータで構成される。

出典: Tom B. Brown et al.

教育データ

GPT-3の基礎教育では大量のテキストデータが使われた。その多くがウェブサイトのデータをスクレイピングしたもので、Common Crawlと呼ばれるデータベースに格納されている情報が利用された。この他にデジタル化された書籍やウィキペディアも使われた。つまり、GPT-3はインターネット上の情報で教育されたAIとなる。

出典: Tom B. Brown et al.  

GPT-3は多彩な機能を習得

開発されたGPT-3は多彩な言語能力を習得した。GPT-3は自然言語解析に強く、文章の生成だけでなく、言語翻訳、質疑応答、文章の穴埋め(cloze tasks)を実行できる。また、因果関係を把握する(Reasoning)機能、文字の並べ替え(unscrambling words)、3桁の計算を実行する能力がある。 (下の写真、GPT-3が文法の間違いを修正する機能。文法の間違い(灰色の部分)を修正し正しい文章(黒色の部分)を生成する。)

出典: Tom B. Brown et al.  

GPT-3の機能の限界

GPT-3が生成する文章の品質は極めて高く、恐ろしいほど人間の文章に近く、社会に衝撃を与えた。同時に、この研究で、GPT-3は多くの課題があることも明らかになった。また、AI研究者からもGPT-3の問題点が指摘された。

文法は正しいが違和感を感じる

GPT-3は高品質な記事を生成するが、しばしば稚拙な文章を生成する。例えば、GPT-3は同じ意味の記述を繰り返し、趣旨一貫しない記事も多い。また、結論が矛盾していることも少なくない。特に、推論においてはGPT-3は人間のような常識を持っておらず、社会通念に反した文章を生成する。

出典: Tom B. Brown et al.  

(上の写真:灰色の部分が人間の入力で、GPT-3はそれに続く文章を生成(黒字の部分)。人間が「映画スターJoaquin Phoenixは授賞式で同じタキシードを着ると約束した」という内容で記事を書くよう指示すると、GPT-3は「Phoenixはハリウッドの慣習を破った」という内容の記事を生成した。しかし、言葉の繰り返しが目立ち、意味は通じるが、稚拙な文章でしっくりしない。)

物理現象の常識

GPT-3は物理現象の常識(common sense physics)が欠けている。このため、「冷蔵庫にチーズを入れると溶けるか?」という質問にGPT-3は正しく回答できない。また、「2021年のワールドシリーズは誰が勝った?」という質問にはGPT-3は「ニューヨーク・ヤンキース」と答える(下の写真)。GPT-3は日常社会の基本的な概念を持たず、人間とは本質的に異なる。

出典: Kevin Lacker

社会のしきたり

GPT-3は人間社会の慣習や常識についての知識を持っていない。人間が「弁護士がスーツのズボンが汚れているのに気付いた。しかし弁護士はお洒落な水着を持っている。」と入力すると(下の写真)、GPT-3は「弁護士は水着を着て裁判所に行った」という文章を生成(太字の部分)。GPT-3は社会の常識が無く、弁護士が水着で裁判所に行くことはない、という社会通念を理解していない。

出典: Gary Marcus

課題1:言語モデルの教育方法

GPT-3はネット上のテキストだけで教育され知識を取得した。一方、人間はテキストを読んで学習することに加え、テレビやビデオで情報を得る。それ以前に、人間は日常生活で人と交わり、交流を通じて社会の常識を得る。言語モデルはテキストだけで教育すると限界に達し、これ以外のメディア(ビデオや実社会との交流など)による教育が次のステップとなる。

課題2:学習効率

GPT-3の特徴はFew-Shot Learningで、人間のように少ない事例でタスクを実行できる。しかし、GPT-3は基礎教育の課程で人間が学習するより多くのデータで教育された。GPT-3は数十億ページのドキュメントで学習したが、人間はこれほど大量の書物を読まなくても言葉を習得できる。つまり、言語モデルの教育では人間のように効率的に学習することが課題となる。このためには、教育データの範囲を広げること (実社会のデータなど)や、アルゴリズムの改良が次の研究テーマとなる。

否定的な見解

この研究ではGPT-3のサイズを大きくすると、言語能力が向上することが示された。では、GPT-3のニューラルネットワークを更に巨大にすると、人間のようなインテリジェンスを獲得できるかが議論となっている。ニューヨーク大学(New York University)名誉教授Gary Marcusはこれに対し否定的で、サイズを大きくしても機能は改良されないと表明している。GPT-3は学習した言葉を繋ぎ合わせているだけで、文法は完璧だが、その意味を理解しているわけでないと説明する。

人間に近づけるか

OpenAIは論文の中で、GPT-3が言葉の意味を理解することが課題で、次のステップとして、アルゴリズムを人間のように教育する構想を示している。AIが社会に出て、人と交わり、経験を積むことで、言葉とその意味の関係(Grounding)を学習する。この手法でAIがどこまで人間に近づけるのか、これからの研究に期待が寄せられている。

GPT-3の多彩な機能とベンチマーク結果】

穴埋め問題

GPT-3は文章を読んで最後の単語を予測する機能を持つ(下の写真)。これは「LAMBADA」といわれるタスクで、言語モデルの長期依存機能(言葉を覚えている機能)をベンチマークする。物語が展開され(下の事例では暗闇の中で岩に階段が刻まれている)、それを読み進め、GPT-3が最後の単語を推定する(正解は階段)。GPT-3の正解率は86.4%で業界トップの成績をマークした。

出典: Tom B. Brown et al.  

知識を検証する

GPT-3は幅広い知識を持っており、言語モデルの知識を検証する試験(Closed Book Question Answering)で好成績をマークした。これは「TriviaQA」と呼ばれ、言語モデルがテキストを読み質問に回答する(下の写真)。ここでは一般知識に関する幅広い質問が出され、言語モデルの知識の量を検証する。(下の事例、「Nude Descending a Staircase(階段を下りるヌード)」という絵画の制作者を問う問題。正解はMarcel Duchampであるが表記法は下記の通り複数ある。)

出典: Tom B. Brown et al.  

このケースではGPT-3の正解率は71.2%(Few-Shot Learning)をマークした。このベンチマークでは、GPT-3のサイズが大きくなるにつれ、正解率が向上していることが示された(下のグラフ)。つまり、ニューラルネットワークの規模が大きくなるにつれ、知識を吸収する技量が向上することが証明された。

出典: Tom B. Brown et al.  

文章生成

GPT-3は人間のように文章を生成するが、その性能を検証するベンチマーク(News Article Generation)が実施された(下の写真)。GPT-3が生成した記事を人間が読んで、マシンが生成したものであることを見分ける試験。その結果、最大モデルの検知率は52%で、GPT-3が生成する文章の半数は人間が真偽を判定できないことを示している。このケースでもGPT-3のサイズが大きくなるにつれ、フェイクニュースの技量が向上していることが分かる。

出典: Tom B. Brown et al.  

OpenAIは世界最大規模のAIを公開、AIが不気味なほど人間らしい文章を生成、トランプ大統領宛の手紙を執筆

OpenAIは世界最大規模のAI「GPT-3」を公開した。GPT-3は言葉を生成するAIで、アルゴリズムが人間のように記事を書く。不気味なほど人間らしい文章で、GPT-3がトランプ大統宛の手紙を執筆した。AIを巨大にすると人間に近づけるのか、GPT-3でその端緒が見えてきた。

出典: OpenAI

OpenAIとは

OpenAIはAI研究の非営利団体で、イーロン・マスク(Elon Musk)らにより、2015年に設立された。OpenAIは人間レベルのインテリジェンスを持つAIを開発することをミッションとしている。OpenAIは深層強化学習(Deep Reinforcement Learning)やGPT-3のような言語モデルを中心に研究を進めている。

GPT-3とは

GPT-3は言語モデル「Autoregressive Language Model」で、過去の挙動(入力された言葉)に基づき、将来の挙動(それに続く言葉)を予測する機能を持つ。つまり、GPT-3は入力された言葉に続く言葉を予測する。シンプルな機能であるが、これが言葉を理解する本質的な能力となり、文章の生成だけでなく、言語の翻訳や文章を要約することができる。GPT-3は言語モデルであるが、その特徴はシステムの規模で、世界最大のニューラルネットワークで構成され、けた違いに高度な言語能力を示す。

GPTの開発経緯

OpenAIは言語モデルGPT (Generative Pre-Trained)の開発を進め、それをオープンソースとして公開している。AIのサイズはニューラルネットワークのパラメータの数で示され、第二世代のモデルGPT-2は15億個で、第三世代のモデルGPT-3は1750億個と百倍以上大きくなった。GPT-3が生成する記事は人間のものと区別はつかず、これが悪用されると社会が混乱する。このため、GPT-3は一般には公開されておらず、審査に合格した研究団体だけがこれを使うことができる。

GPT-3で記事を生成すると

GPT-3を使って生成された文章は気味悪いほど人間が書いた文章に近い。GPT-3に題名と副題を入力すると、GPT-3がそれに沿った記事を生成する(下の写真、灰色の部分が人間の入力で、黒色の部分がGPT-3が生成した文章)。

出典: Tom B. Brown et al.

人間が「米国メソジスト教会が分割された」という内容で記事を書くよう指示すると、GPT-3は「同性婚をめぐり意見が対立し新たな教派ができた」という内容の記事を生成。文章は自然で人間の記者が書いた新聞記事のような印象を受ける。実際に、生成された記事の判定試験をすると、88%の人が、人間が書いた記事と判定した。もはやAIと人間の違いを見分けることができない。(因みに、米国メソジスト教会の分割については協議中で、まだ分割されてはいない。)

トランプ大統への書簡

GPT-3は地球温暖化防止を訴える書簡を執筆し、トランプ大統領に送付した(下の写真)。GPT-3に書簡の趣旨を指示すると、アルゴリズムがこれに沿って手紙を執筆した。具体的には、「Ice Cap(氷帽、氷河の塊)から大統領への書簡をしたためよ」と指示すると、GPT-3は「自分はIce Capで、我々を見捨てないで」と窮状を訴える文章を生成。更に、GPT-3は「温暖化対策は必要ないという意見は聞かないで」と助言する。これはアルゴリズムを使った芸術家Jeroen van der Mostが制作したもので、GPT-3の多彩な機能の一面が示された。

出典: Jeroen van der Most

歴史上の人物と会話する

GPT-3は歴史についての豊富な知識を持っており、この機能を使って歴史に登場する著名人と会話できる(下の写真左側)。歴史をさかのぼり、シェイクスピア(William Shakespeare)に、なぜブルータス(Brutus)はシーザー(Caesar)を殺したのかと質問すると、「ブルータスはシーザーが力をつけるのを恐れていたため」と回答。更に、この行為は正しかったのかと質問すると、「ブルータスはシーザーに事前に警告しており、国を守るための正当な行為であった」と回答する。シェイクスピアが著書ジュリアス・シーザー(The Tragedy of Julius Caesar)を書いた背景を窺うことができる。

出典: Mckay Wrigley

また、実在する人物と会話することもできる(上の写真右側)。SpaceX創業者イーロン・マスクにロケットの仕組みを尋ねると、「ロケットはオブジェクトを宇宙空間に運ぶために使う」と回答。どんなロケットを開発しているかとの質問には、「Falcon 9とFalcon HeavyとBFR」と回答する。著名人と直接話すことはできないが、GPT-3でバーチャルな会話を楽しむことができる。

ブログはGPT-3が作る

「Adolos」はマインドフルネスと創造性に関するブログで、仕事と心の健康に関し有益な記事を掲載している(下の写真)。その中で、「Feeling unproductive?」という記事を読むと、「考えすぎると思考回路がストップする。新たな分野に挑戦することで創造的な発想ができる。」とアドバイスする。このブログが話題となり、ニュースランキング(Y CombinatorのHacker News)でトップとなった。

出典: Adolos

しかし、このブログは人間ではなくGPT-3が作成したものであることが判明し、再び、話題となった。これは、カリフォルニア大学バークレー校の学生Liam PorrがGPT-3を使って作成したもので、ブログ記事のすべてがアルゴリズムで生成されている。ブログのタイトルと副題を入力すると、GPT-3がそのテーマに沿った記事を生成する。

GPT-3の得意分野と弱点

GPT-3でブログ記事を生成するにはコツがあり、アルゴリズムの特性に沿ったテーマを選ぶ必要がある。GPT-3がロジカルな記事を生成するとしばしば論理に齟齬が生じるが、メンタルな記事では人間のように滑らかな文章が生成される。マインドフルネスや創造性などのテーマがGPT-3の得意分野となる。

人間のインテリジェンスに到達

GPT-3は人間と変わらない技量で記事を書きブログを生成する。GPT-3の能力の高さに驚くと同時に、アルゴリズムが人間に近づき不気味さを感じる。この研究ではニューラルネットワークを大きくすると言語機能が高まることが示された。それでは、更に巨大なニューラルネットワークを構築すると人間レベルの言語能力を獲得できるのか、OpenAIのインテリジェンスの探求が続いている。

公開されているAIを悪用した攻撃が急増!!GANで高品質なフェイクメディアが量産され国家安全保障の危機

セキュリティの国際会議Black Hat 2020が開催され、最新の攻撃手法が報告された。今年は米国大統領選挙の年で、AIを使った攻撃が議論の中心となった。オープンソースとして公開されているAIを使うと、誰でも簡単に高品質のフェイクメディアを生成でき、情報操作の件数が急増している。

出典: FireEye

FireEyeのレポート

セキュリティ企業FireEyeはオープンソースのAIが悪用されている実態を報告した。これを使うと、誰でも簡単に高精度なフェイクイメージを生成でき、敵対する国家が米国などを標的に情報操作を展開している。FireEyeはシリコンバレーに拠点を置く企業でサイバー攻撃を防ぐ技術を開発している。

攻撃の概要

インターネット上にはオープンソースAI(ソースコードや教育済みのニューラルネットワーク)が公開されており、誰でも自由に使える状態になっている。これは研究開発を支援するための仕組みであり、オープンソースAIを改造して技術開発を進める。一方、この仕組みを悪用すると、簡単にフェイクメディア(偽のイメージや音声やテキスト)を生成できる。敵対国家は生成したフェイクメディアで西側諸国の世論を分断し社会を不安定にする。この情報操作は「Information Operations」と呼ばれ、米国で大統領選挙に向けて件数が急増している。

フェイクイメージ生成:StyleGAN2

情報操作で使われる手法は様々であるが、フェイクイメージを生成するために「StyleGAN2」が使われる。StyleGAN2とはNvidiaのKarrasらにより開発されたAIで、StyleGANの改良版となる。StyleGAN2はリアルなイメージを生成するだけではなく、アルゴリズムがオブジェクト(例えば顔)のパーツ(例えば目や鼻など)を把握し、異なるスタイルで対象物を描くことができる。

出典: NVIDIA Research Projects

StyleGAN2はGitHubにソースコードが公開されており、これを再教育することで目的のイメージを生成できる。オリジナルのStyleGANと比べて、StyleGAN2はエラー(Artifacts)が無くなり、イメージの品質が格段に向上した。(上の写真:StyleGAN2で生成した人間の顔のイメージ。このような人物は存在せず、攻撃者は架空の人物になりすまし、SNSで情報操作を展開する。)

StyleGAN2クラウド

アルゴリズムを再教育し実行するにはそれなりの技量がいるが、StyleGAN2のクラウドを使うと簡単にフェイクイメージを入手できる。その代表が「thispersondoesnotexist」で、StyleGAN2クラウドとしてAIが顔イメージを生成する(下の写真左端)。また、「thisartworkdoesnotexist」は抽象画を生成(下の写真中央)し、「thiscatdoesnotexist」は猫のイメージを生成する(下の写真右側)。これらはどこにも存在しない架空の人物や芸術や猫で、オンリーワンのオブジェクトとして希少価値がある。しかし、これらが悪用されると、真偽の区別がつかず、社会が混乱することになる。

出典: thispersondoesnotexist / thisartworkdoesnotexist / thiscatdoesnotexist

偽のトム・ハンクスを生成

このStyleGAN2に俳優トム・ハンクス(Tom Hanks)の写真を入力し、アルゴリズムを再教育すると、AIが本物そっくりのトム・ハンクスを生成する。(先頭の写真、左下が入力された写真で、右端が生成された偽のトム・ハンクス。)生成された顔写真はトム・ハンクスと瓜二つで、真偽の区別はできない。攻撃者はStyleGAN2を使って異なるシーン(表情や年齢やヘアスタイルなど)のトム・ハンクスを生成し、これら架空の顔写真で本人を攻撃したり、世論を操作することが懸念される。もはや、ネット上のセレブの写真は本物であるという保証はない。

フェイクボイス生成:SV2TTS

この他に、「SV2TTS」という技法を使うと、フェイクボイスを生成できる。SV2TTSとは、テキストを音声に変換する技術(text-to-speech)であるが、AIが特定人物の声を学習する(下の写真)。例えば、SV2TTSに文章を入力すると、トム・ハンクスがそれを読み上げているフェイクボイスを生成できる。この技術はGoogleのYe Jiaなどによって開発され、GitHubにソースコードが公開されている。

出典: Corentin Jemine

フェイクテキスト生成:GPT-2

更に、「GPT-2」を使うと、AIが人間のように文章を生成する。生成された文章はごく自然で、人間が作成したものと区別はつかない。GPT-2はAI研究非営利団体OpenAIにより開発され、その危険性を認識して、ソースコードは公開されていなかった。しかし、AIコミュニティが研究開発を進めるためはソースコードが必須で、OpenAIはこの方針を撤回し、GitHubにGPT-2を公開した。

GPT-2がツイートを生成

このため、テキスト生成の研究が進むと同時に、GPT-2を悪用した攻撃も始まった。GPT-2をソーシャルメディアのテキストで教育すると、AIがリアルなツイートを生成する。更に、情報操作のために発信されたツイートで教育すると、人間に代わりGPT-2が世論を操作するツイートを生成する。実際に、ロシアの情報操作機関Internet Research Agencyが発信したツイートで教育され、GPT-2が米国の世論を分断するツイートを自動で生成する。

出典: FireEye

(上の写真:GPT-2が情報操作のためのツイートを生成した事例。GPT-2は「It’s disgraceful that they are deciding to completely ban us! #Immigrants #WakeUpAmerica」と、トランプ大統領の移民禁止政策に反対するツイートを生成。GPT-2が生成するツイートは短く簡潔で、ツイッター独自の言い回しで、しばしば間違った文法の文章を生成。文章の最後にはハッシュタグを挿入。人間が生成したものとの見分けはつかず、AIが人間に代わり社会を攻撃する。)

Twitter Botsによる偽情報

いま、ツイッターにはコロナウイルスに関するツイートが数多く掲載されているが、このうち半数がAI(Twitter Botsと呼ばれる)により生成されたものである。これらツイートは社会を混乱させることを目的とし、「既往症があればコロナウイルスのPCR検査は不要」などと主張する(下の写真)。もはや、フェイクとリアルの見分けはつかず、読者は状況を総合的に判断して理解する必要がある。また、AI開発ではソースコードの公開が必須であるが、AI開発者はフェイクを見分ける技術の開発も求められている。

出典: “Sara”

米国大統領選挙への介入

今年11月には米国大統領選挙が行われ、既に、ロシアや中国やイランが情報操作作戦を展開している。国家情報局・防諜部門(National Counterintelligence and Security Center)によると、ロシアはトランプ大統領再選を目指し、中国とイランはバイデン候補を支援する情報操作を展開していると報告している。また、Black Hatセキュリティ国際会議で、ロシアの情報操作技術が他国に比べ圧倒的に高く、最も警戒すべき国家であると報告された。米国や西側諸国はAIを悪用した攻撃に対する防衛能力が試されている。