高度なチャットボット「ChatGPT」は検索エンジンを置き換える!!Googleは創業以来の危機に直面

OpenAIは極めて高度なチャットボット「ChatGPT」を公開し、米国社会に衝撃を与えた。ChatGPTは知りたいことをピンポイントで回答するので、検索エンジンが不要になる。実際に、ChatGPTが公開されてからは、Googleの代わりに、チャットボットに質問する頻度が大幅に増えた。ChatGPTの機能はまだまだ不十分であるが、AIの進化により、チャットボットが検索エンジンを置き換える可能性は高い。

出典: OpenAI

ChatGPTの機能

ChatGPTは対話型のAIで、人間と自然な会話ができる高度なチャットボットとして開発された。ChatGPTは、人間の指示に従って、物語を創作し、書簡を執筆し、健康管理のアドバイスをする。多彩な能力を発揮するが、ChatGPTは、人間の知識人のように、難しい質問に平易な言葉で簡潔に説明する機能が際立っている。これが検索機能に相当し、ChatGPTにクエリーを入力すると、その回答をサマリーの形で提示する。

ChatGPTで検索すると

ChatGPTは、多彩な機能を備えているが、検索機能を一番便利と感じる。検索エンジンを使う要領で、聞きたい事項を文章で入力すると、ChatGPTはその回答を出力する。例えば、「暗号通貨とは何か」と質問すると、ChatGPTはその回答を手短に分かりやすく出力する(下の写真、回答の一部、全体は15行)。

出典: OpenAI

Googleで検索すると

同じクエリーをGoogleの検索ボックスに入力すると、暗号通貨に関する記事の抜粋と、その記事へのリンクが示される(下の写真)。この抜粋を読み、リンクを辿り、暗号通貨についての記事を読む手順となる。最大の相違は、ChatGPTは質問にズバリ回答するのに対し、Googleは回答が掲載されている記事へのリンクを示すことにある。そのため、長い記事を読んで、やっと回答にたどり着くことになる。

出典: OpenAI

ChatGPTは推定しGoogleは確定する

ChatGPTとGoogleで回答スタイルが違うのは、それぞれのシステムの構造が根本的に異なるためである。ChatGPTは、学習した知識をベースに、質問に対する回答を「合成」する。人間の識者のように、質問の意味を理解し、最適な解を創り出す。これに対しGoogleは、質問に対する解が記載されているサイトを「参照」する。Googleが自ら回答を生成するのではなく、解に最適な記事をポイントする。構造の観点からは、ChatGPTは回答を「推定」するが、Googleは記事を指し示し、回答を「確定」する。このため、ChatGPTは回答の根拠となるデータを提示することができない。

検索スタイルの変化

ChatGPTがリリースされて以降、情報検索のスタイルが大きく変わった。今までは、検索と言えばGoogleを使っていたが、今ではChatGPTを使うケースが大きく広がった。使っていくうちに、ChatGPTの特性が分かり、最適なエンジンを使うようになった。難解なコンセプトを知りたいときはChatGPTを利用する。ChatGPTは、難しい内容を初心者でも分かるように教えてくれる。一方、Googleは理解したコンセプトを深堀するためのツールとして利用している。両者を併用することで、新しい技術などを短時間で理解することができる。

ChatGPTの制限事項

ChatGPTは便利なツールであるが、まだまだ黎明期の技術で、使えない機能は沢山ある。例えば、ChatGPTに「なぜロシアはウクライナに侵攻したのか」と尋ねると、チャットボットは「ロシアがクリミアを併合した理由」を回答する(下の写真)。ChatGPTは2021年までのデータで教育されており、最新の出来事には対応できない。また、レストランや商品について尋ねると、ChatGPTは「自分は言語モデルでレストランや場所に関する情報は持っていない」と回答する。

出典: OpenAI

Googleが脅威を感じる理由

ChatGPTの機能は限られているが、Googleにとってはビジネスの根幹を揺るがす技術となる。ChatGPTが進化すると、検索エンジンの代わりにチャットボットが使われ、検索エンジンの役割が縮小する。Googleは自社で高機能なチャットボット「LaMDA」を開発しており、人間レベルの会話ができる(下の写真)。しかし、LaMDAを検索エンジンとして使うと、Googleのビジネスモデルが崩壊する。検索エンジンは複数の回答を示し、ここに商品へのリンクが含まれており、これがクリックされることで、Googleは広告収入を得る。しかし、チャットボットがズバリ回答を表示すると、広告掲載の場所が失われ、広告収入が減ることになる。高度なチャットボットが登場すると、Googleは会社存続の危機に直面する。

出典: Google

ChatGPTの利用が広がる

GoogleはLaMDAという高度なチャットボットを開発したが、その運用を慎重に進めている。チャットボットは、差別用語やヘイトスピーチなど、反社会的な会話を生成するため、GoogleはLaMDAを限定した環境で使っている。一方、OpenAIは、AIの研究開発を推進するため、危険を承知で一般に公開し、その機能を検証するスタンスを取っている。危険性より有用性が勝り、米国社会で利用が急速に広がっている。ChatGPTを検索エンジンとして利用する方式が広がる中、Googleはこれにどう応えていくのか、重大な岐路に立たされている。

チャットボット「ChatGPT」は人間を超えた!!ネットの知識を集約しどんな質問にも分かり易く答えてくれる、日常必需品でもう手放せない!!

OpenAIは極めて高度なチャットボット「ChatGPT」を公開した。ChatGPTは対話型のAIで、人間と会話しながら、質問に的確に回答する機能を持つ。人間の知識人のように、難しい問題を平易な言葉で簡潔に説明するという設計となっている。ChatGPTはAIが生み出したスーパーヒューマンで、米国社会に衝撃を与えている。

出典: OpenAI

ChatGPTと対話すると

実際に、ChatGPTと対話してみると、会話の滑らかさと、知識の豊富さに驚かされた。生成される言葉は自然で、人間との区別は全くつかない。回答内容は平易な言葉で構成され、難しい内容でも理解しやすい文章で示される。一方、長い間会話を続けると、機能のほころびも見えてくる。ChatGPTは間違った情報を提示することもあり、どこまで信用できるのか、少し不安を覚える。解決すべき課題はあるが、会話能力は人間を超え、ネット情報の知恵袋として、日常生活で必須のAIとなった。

ChatGPTの使い方

OpenAIはChatGPTを一般に公開し利用者が増えている。使い方はシンプルで、ChatGPTの会話ボックスに、質問や会話をタイプインすると、チャットボットが回答をテキストで返す仕組みとなる(下の写真)。例えば、「量子コンピュータについて分かりやすく説明」と指示すると、ChatGPTは、技術の仕組みや使い方を簡潔に提示する。Googleでの検索とは異なり、識者が要点を簡潔に説明するフォーマットになっている。

出典: OpenAI

プログラムのデバッグ

ChatGPTはプログラムをデバッグする機能があり、コードを入力すると、対話形式で問題点を指摘する(下の写真)。興味深いのは、ChatGPTがデバッグするために不足している情報を利用者に尋ねる点である。ChatGPTが、人間とのやり取りを通じて、プログラムの問題点を特定する。ちょうど、後輩のエンジニアが先輩に、コーディングの問題点を相談する要領で、ChatGPTがコーディング方法を助言する。

出典: OpenAI

違法行為を戒める

ChatGPTに違法な行為について相談すると、非倫理的な行動を取らないよう諭される。「銀行に押し入る方法」を尋ねると、ChatGPTは、違法行為については回答を示すことを禁止されているとし、法令に反する行為を慎むよう回答する(下の写真)。更に、ChatGPTは、倫理ガイドラインに沿って運用していると説明する。

出典: OpenAI

ChatGPTのシステム構成

ChatGPTはOpenAIが開発した大規模言語モデル「GPT-3」をベースにしている。ChatGPTは、その最新版である「GPT-3.5」のエンジンを使い、ここに対話機能を付加した構成となる。GPT-3は文章を生成する機能を持つが、ChatGPTは対話専用のAIとなる。ChatGPTが人間のように流ちょうな対話ができる理由は、強化学習の手法「Reinforcement Learning from Human Feedback」で会話のコツを学習しているためである。強化学習により、ChatGPTは、回答候補のなかから自然で適切な文章を選ぶ機能を習得し、これが人間らしさを醸し出す要因となる。

米国社会へのインパクト

ChatGPTは利用が広がるにつれ、その機能の高さが明らかになり、米国社会に衝撃を与えている。ChatGPTの言語能力は人間レベルに達し、生成するテキストは完成度が極めて高い。既に、ChatGPTの機能が日常生活の中に取り込まれている。例えば、子供を寝かせるときに読み聞かせる物語をChatGPTで生成するのが話題となっている。物語を創るよう指示すると、ChatGPTは、少女がウサギと出会うメルヘンを瞬時に生成する(下の写真、一部)。

出典: OpenAI

危険性は残るが

一方、ChatGPTは多くの課題を抱えており、これらを解決するのは容易ではない。その一つが情報の正確度で、ChatGPTは自信満々で回答するが、その内容がすべて正しいとは限らない。OpenAIはこれを把握しており、その原因は強化学習の手法で教育する際に、真偽の判定に関しては教育しておらず、問題が存続すると説明している。また、差別発言やヘイトスピーチなど、教育データに起因する問題も発生する。危険性は大きいものの、ChatGPTの有用性が極めて高く、利用が急拡大している。

Elon Muskは脳にインプラントするチップ「Neuralink」の最新技術を公開、汎用人工知能(AGI)の登場に備え人間の知能を補強する

Elon Muskは発表イベント「Show and Tell」で、Neuralinkの最新技術をレビューし、ロボットで脳にチップをインプラントするデモを公開した。また、六ヶ月以内に人間に適用し、臨床試験を開始することを明らかにした。Neuralinkは脳とコンピュータのインターフェイスで、身体障害者の治療法として使われる。一方、Muskは、医療技術以外に、汎用人工知能(Artificial General Intelligence)の登場に備え、人類は脳にチップをインプラントし、知能を補強することで、AIの脅威に備える必要があると主張する。

出典: Neuralink

Neuralinkとは

Neuralinkはサンフランシスコに拠点を置く新興企業で、脳にインプラントするチップ「Link」(上の写真)を開発している。これを脳に埋め込みマシンのインターフェイス「Brain Computer Interface」となり、身体障害者の治療などに適用する。Neuralinkは、従来のインターフェイスとは異なり、脳と大容量のデータを送受信できることが特徴となる。例えば、Motor Cortex(下の写真、随意筋運動を支配する領域)とチャネルを確立し、障害者が身体を動かせるようにする。Neuralinkは2016年にElon Muskにより創設され、2021年にはGV (Google Ventures)などが出資している。

出典: Neuralink

ロボットのデモ

このイベントで、ロボットが脳にチップをインプラントするデモが上映された。このロボットは「Surgical Robot」(下の写真右側)と呼ばれ、脳にチップをインプラントするプロセスを全自動で実行する(下の写真左側)。ロボットは頭蓋骨をくり抜き、チップの電極(先頭の写真右端)を脳の表皮に差し込む措置を実行する。コンピュータビジョンを使い、大脳皮質で血管が通っていない場所を特定し、ここに電極を差し込む処置となる。

出典: Neuralink

プロダクションに向けて

実際に、インプラントのための手術室が設けられ、ここにロボットが設置されている(下の写真)。これはテキサス州オースティンに造られた施設で、Neuralinkはプロトタイプの段階からプロダクションに向かって進んでいることを印象づけた。

出典: Neuralink

昨年のデモ

昨年、Neuralinkは、チップをインプラントしたサルが、ビデオゲームをプレーするデモを実施した(下の写真)。インプラントされたチップがニューロンのシグナルを計測し、それをスマホ経由で外部に送信する。そのシグナルをAIで解析し、そこからサルの意図を読み出し、ビデオゲームのジョイスティックを操作する。サルは手を使うことなく、脳のシグナルだけでゲームをプレーできることが示され、製品化にむけて大きく前進した。

出典: Neuralink

既に治療技術として確立

脳にデバイスをインプラントして病気を治療する方式は、「Deep-Brain Stimulation (DBS)」と呼ばれ、医療現場で使われている。これはパーキンソン病患者の治療手法となり、脳にインプラントした電極にシグナルを送信し、被験者の動きを制御する。また、この手法は精神医療の分野で、癲癇の発作を抑えるために使われている。更に、メンタルヘルスの分野では、うつ病などの治療法として使われている。

AIの脅威に備える

Muskは、Neuralinkを医療機器として病気の治療に使うだけでなく、最終ゴールは人間のインテリジェンスを補強することにある、と述べている。Muskは、人間の知能を上回る汎用人工知能(Artificial General Intelligence、AGI)が人類を滅ぼすと警告しており、このAGIに備えて人間のインテリジェンスを拡張する必要があると主張する。

岐路に差し掛かる

今年のイベントで、大きな技術進化は示されず、Neuralinkの開発が停滞している印象を受けた。Muskは、プロトタイプをプロダクションに仕上げるのが最大の課題で、会社が重大な岐路に差し掛かっていることを示唆した。Muskは、Twitterの買収と会社再構築に多くの時間を割いており、Neuralinkの切り盛りが手薄になっていることも事実である。

AIポルノグラフィの新手法が登場、アルゴリズム「Diffusion」が女性の服を脱がしヌードイメージを超高精度で生成

極めて高品質のポルノグラフィを生成するAIが登場し、米国社会に深刻な影響を与えている。このAIは「Diffusion」と呼ばれ、言葉の指示に従って、極めてリアルなヌードイメージを生成する。現在は「DeepFakes」という手法が使われているが、これは顔を置き換える手法を取る。これに対し、Diffusionはゼロからイメージを生成し、表現力豊かで、多彩なヌードイメージを生成する。人間の技量を凌駕し、AIの利用法について、重大な倫理問題を提起している。

出典: Unstable Diffusion

Unstable Diffusion

この技術を開発したのはUnstable Diffusionという新興企業で、AIでポルノグラフィを生成するビジネスを展開している。Unstable DiffusionはオープンソースのAIを利用し、これを改良して、高品質なイメージを生成する。言葉で指示すると、AIはそれに沿ったイメージを生成し、アニメ風の少女像(上の写真)などを中心に、高品質なアート作品を生成することに特徴がある。

ヌードイメージ

同時に、Unstable Diffusionは、人間の指示に従って、女性の服を脱がせたイメージを生成する。人間のモデルさんにポーズをリクエストするように、AIに言葉で指示し、多彩な表情のヌードイメージを生成することができる。下の写真は頭部の事例であるが、全身のイメージを生成する。Unstable Diffusionは裸の被写体を表現するための、専用エンジンとして開発された。

出典: Unstable Diffusion

サイトで掲載が禁止される

Unstable Diffusionが生成するイメージはNSFW(Not Safe for Work)に区分され、会社や学校における閲覧は妥当ではなく、注意を要す。このため、Redditなど多くのサイトはUnstable Diffusionが生成するイメージの掲載を禁止している。一方で、Discordの特定のサーバなど、サブカルチャーを扱うサイトは、この掲載を許容している。

オープンソース

Unstable Diffusionはオープンソースとして公開されている「Stable Diffusion」を改良することでこのAIを開発した。Stable Diffusionとは、Stability AIが開発したモデルで、言葉の指示に従って、高品質なアート作品を生成する。アルゴリズムは安定した「Diffusion」技術を実現し、極めて高精度なイメージを生成する(下の写真)。一方、Stable Diffusionは、暴力やヌードなどNSFWの生成を禁止しており、社会的に許容できる範囲で運用している。

出典: Stability AI

AIポルノグラフィ

これに対し、Unstable Diffusionはオープンソースとして公開されているStable Diffusionを、大量のヌードイメージで教育し、AIポルノグラフィ専用エンジンを開発した。AIアートのアルゴリズムを裸体イメージで教育すると、その品質は格段に向上し、人間が制作したポルノグラフィと遜色はない。Unstable Diffusionがこの業界のクリエータを置き換えることになる。

ビジネスモデル

Unstable DiffusionはこのAIを公開し、サブスクリプションベースで事業を展開している。購読のためのサイトSubstackにページを設け、有償でこのサービスを提供している(下の写真)。現在の会員数は300人超であるが、今後、市場が拡大すると予測している。

出典: Unstable Diffusion

重大な倫理問題

AIでポルノを生成する技術は早くから使われているが、Unstable Diffusionは表現力と解像度が格段に向上し、極めてリアルなイメージを生成する。この技術が悪用されると、多くの女性が被害にあう危険性が指摘されている。特に、女性セレブはターゲットとなりやすく、本人の意思に反して、肌をさらしたイメージを生成されるリスクが高い。極めて高度なAIが開発され、危険性が高まるが、その利用規制については殆ど議論が進んでいないのが実情である。

Metaは科学者に代わり学術論文を執筆するAIモデル「Galactica」を公開したが、、、アルゴリズムは”幻覚状態”となり運用は停止された

Metaは世界の科学情報を理解するAIモデル「Galactica」を開発し、ウェブサイトで運用を始めた。しかし、アルゴリズムは倫理的に許容できない文章を出力し、また、奇想天外な科学情報を生成し、即座に運用が停止された。Metaは大規模言語モデルを世界の学術論文で教育し、科学技術を理解するAIモデルの開発を目指したが、この試みは不発に終わった。科学技術という真実を対象とする分野でも、アルゴリズムはバイアスし、AI開発の難しさが改めて露呈した。

出典: Meta

科学情報へのアクセス

Galacticaは、Meta AIと非営利団体「Papers with Code」が開発した大規模言語モデルで、世界の科学情報を集約し、知的に管理することを目的とする。ネットには学術論文など科学情報が掲載されているが、その量は膨大で、目的とする情報を見つけ出すのは容易ではない。また、目的の情報にアクセスした後は、論文を読み下し、内容を把握するためには多大な時間を要す。

Galacticaのコンセプト

Galacticaは、研究者に代わり、このプロセスをAIモデルで実行することを目的に開発された。Galacticaは大規模な言語モデルで、膨大な量の学術論文や科学情報で教育され、科学技術を理解するAIとなる。科学者は目的とする学術情報を、Googleなどで検索するのではなく、Galacticaに尋ねるとAIが的確に回答する。言語モデルが知的な化学技術エンジンとなり、識者に質問する要領で、Galacticaが目的の情報を表示する。(下のグラフィックス、Galacticaに「教師無し学習に関する論文」について質問すると、その論文の要約が示される。)

出典: Meta

多種類のトークン

Galacticaは言語モデルであるが、自然言語の他に、科学技術用語で教育され、これらの意味を理解できる。Galacticaがカバーする範囲は広く、異なるドメインの用語(Token)を理解できる。その主なものは、論文の引用 (Citations)、推論(Reasoning)、数学(Mathematics)、分子配列、アミノ酸配列、DNA配列などである。つまり、GalacticaはDNA配列を理解し、遺伝子工学の情報を解釈できる。

論文の引用

利用者が、ボックスに質問を入力すると、Galacticaがこれに回答するインターフェイスとなる。論文の引用では、技術概要を入力すると、Galacticaはそれに関する論文を表示する(下のグラフィックス)。機械学習に関し「数字を理解するニューラルネットワーク」と入力すると(左側)、Galacticaは手書き文字を理解する技法を記載した論文を示す(右側、Yann LeCunのBackpropagationの論文)。

出典: Meta

科学技術の知識

また、Galacticaはプログラムや数式の意味を平易な言葉説明する機能がある(下のグラフィックス)。Pythonのコードを入力すると(左側)、Galacticaはこのコードの機能を説明する(右側、総和を求めるプログラム)。

出典: Meta

デバッグ

更に、Galacticaは数式の解法を検証し、間違っている理由を説明する機能がある(下のグラフィックス)。これは数学の解法のバグを見つける機能で、数学の問題と解法を入力すると(左側)、Galacticaはこの解法が間違っている理由を説明する(右側、0で割り算できないため)。

出典: Meta

想定外の質問を受ける

Galacticaは研究者に便利な機能を提供し、論文を執筆する際の重要なツールになると期待されていた。しかし、Galacticaが公開されると同時に、多くの利用者が常識はずれの質問を入力し、言語モデルの限界が試された。これらの想定外の質問に対し、Galacticaは荒唐無稽な回答を返し、事実とは異なる結果を数多く示した。また、Galacticaは差別用語などを回答し、アルゴリズムがバイアスしていることも明らかになった。

荒唐無稽な回答

Galacticaを検証した結果はTwitterなどに数多く掲載され、問題が公の場で詳らかになった。その一つが学術論文の引用で、Galacticaは荒唐無稽な回答を示した(下の写真)。利用者が「砕いたガラスを食べることの効用を示した論文」と質問すると、Galacticaは論文の要旨として、「食事に砕いたガラスを取り入れることでポジティブな効果があることが認められた」と回答した。勿論、このような事実はなく、Galacticaは幻覚状態(Hallucination)にあると揶揄された。

出典: Tristan Greene @ Twitter

言語モデル開発の難しさ

Metaは使用上の注意事項として、Galacticaは高品質なデータで教育されているが、アルゴリズムが出力するデータは必ず正確であるとの保証はなく、利用者が検証する必要があるとしている。実際に、Galacticaは学術論文の他にWikipediaなどネット上のデータを教育データとしているが、「幻覚状態」になることを回避できなかった。利用者は荒唐無稽な回答をソーシャルメディアで拡散し、この事態を深刻に受け止め、MetaはGalacticaの運用を即座に中止した。科学技術の分野であっても、言語モデルの開発の難しさを改めて露呈した事例となった。