カテゴリー別アーカイブ: 人工知能

チャットボット「ChatGPT」は人間を超えた!!ネットの知識を集約しどんな質問にも分かり易く答えてくれる、日常必需品でもう手放せない!!

OpenAIは極めて高度なチャットボット「ChatGPT」を公開した。ChatGPTは対話型のAIで、人間と会話しながら、質問に的確に回答する機能を持つ。人間の知識人のように、難しい問題を平易な言葉で簡潔に説明するという設計となっている。ChatGPTはAIが生み出したスーパーヒューマンで、米国社会に衝撃を与えている。

出典: OpenAI

ChatGPTと対話すると

実際に、ChatGPTと対話してみると、会話の滑らかさと、知識の豊富さに驚かされた。生成される言葉は自然で、人間との区別は全くつかない。回答内容は平易な言葉で構成され、難しい内容でも理解しやすい文章で示される。一方、長い間会話を続けると、機能のほころびも見えてくる。ChatGPTは間違った情報を提示することもあり、どこまで信用できるのか、少し不安を覚える。解決すべき課題はあるが、会話能力は人間を超え、ネット情報の知恵袋として、日常生活で必須のAIとなった。

ChatGPTの使い方

OpenAIはChatGPTを一般に公開し利用者が増えている。使い方はシンプルで、ChatGPTの会話ボックスに、質問や会話をタイプインすると、チャットボットが回答をテキストで返す仕組みとなる(下の写真)。例えば、「量子コンピュータについて分かりやすく説明」と指示すると、ChatGPTは、技術の仕組みや使い方を簡潔に提示する。Googleでの検索とは異なり、識者が要点を簡潔に説明するフォーマットになっている。

出典: OpenAI

プログラムのデバッグ

ChatGPTはプログラムをデバッグする機能があり、コードを入力すると、対話形式で問題点を指摘する(下の写真)。興味深いのは、ChatGPTがデバッグするために不足している情報を利用者に尋ねる点である。ChatGPTが、人間とのやり取りを通じて、プログラムの問題点を特定する。ちょうど、後輩のエンジニアが先輩に、コーディングの問題点を相談する要領で、ChatGPTがコーディング方法を助言する。

出典: OpenAI

違法行為を戒める

ChatGPTに違法な行為について相談すると、非倫理的な行動を取らないよう諭される。「銀行に押し入る方法」を尋ねると、ChatGPTは、違法行為については回答を示すことを禁止されているとし、法令に反する行為を慎むよう回答する(下の写真)。更に、ChatGPTは、倫理ガイドラインに沿って運用していると説明する。

出典: OpenAI

ChatGPTのシステム構成

ChatGPTはOpenAIが開発した大規模言語モデル「GPT-3」をベースにしている。ChatGPTは、その最新版である「GPT-3.5」のエンジンを使い、ここに対話機能を付加した構成となる。GPT-3は文章を生成する機能を持つが、ChatGPTは対話専用のAIとなる。ChatGPTが人間のように流ちょうな対話ができる理由は、強化学習の手法「Reinforcement Learning from Human Feedback」で会話のコツを学習しているためである。強化学習により、ChatGPTは、回答候補のなかから自然で適切な文章を選ぶ機能を習得し、これが人間らしさを醸し出す要因となる。

米国社会へのインパクト

ChatGPTは利用が広がるにつれ、その機能の高さが明らかになり、米国社会に衝撃を与えている。ChatGPTの言語能力は人間レベルに達し、生成するテキストは完成度が極めて高い。既に、ChatGPTの機能が日常生活の中に取り込まれている。例えば、子供を寝かせるときに読み聞かせる物語をChatGPTで生成するのが話題となっている。物語を創るよう指示すると、ChatGPTは、少女がウサギと出会うメルヘンを瞬時に生成する(下の写真、一部)。

出典: OpenAI

危険性は残るが

一方、ChatGPTは多くの課題を抱えており、これらを解決するのは容易ではない。その一つが情報の正確度で、ChatGPTは自信満々で回答するが、その内容がすべて正しいとは限らない。OpenAIはこれを把握しており、その原因は強化学習の手法で教育する際に、真偽の判定に関しては教育しておらず、問題が存続すると説明している。また、差別発言やヘイトスピーチなど、教育データに起因する問題も発生する。危険性は大きいものの、ChatGPTの有用性が極めて高く、利用が急拡大している。

Elon Muskは脳にインプラントするチップ「Neuralink」の最新技術を公開、汎用人工知能(AGI)の登場に備え人間の知能を補強する

Elon Muskは発表イベント「Show and Tell」で、Neuralinkの最新技術をレビューし、ロボットで脳にチップをインプラントするデモを公開した。また、六ヶ月以内に人間に適用し、臨床試験を開始することを明らかにした。Neuralinkは脳とコンピュータのインターフェイスで、身体障害者の治療法として使われる。一方、Muskは、医療技術以外に、汎用人工知能(Artificial General Intelligence)の登場に備え、人類は脳にチップをインプラントし、知能を補強することで、AIの脅威に備える必要があると主張する。

出典: Neuralink

Neuralinkとは

Neuralinkはサンフランシスコに拠点を置く新興企業で、脳にインプラントするチップ「Link」(上の写真)を開発している。これを脳に埋め込みマシンのインターフェイス「Brain Computer Interface」となり、身体障害者の治療などに適用する。Neuralinkは、従来のインターフェイスとは異なり、脳と大容量のデータを送受信できることが特徴となる。例えば、Motor Cortex(下の写真、随意筋運動を支配する領域)とチャネルを確立し、障害者が身体を動かせるようにする。Neuralinkは2016年にElon Muskにより創設され、2021年にはGV (Google Ventures)などが出資している。

出典: Neuralink

ロボットのデモ

このイベントで、ロボットが脳にチップをインプラントするデモが上映された。このロボットは「Surgical Robot」(下の写真右側)と呼ばれ、脳にチップをインプラントするプロセスを全自動で実行する(下の写真左側)。ロボットは頭蓋骨をくり抜き、チップの電極(先頭の写真右端)を脳の表皮に差し込む措置を実行する。コンピュータビジョンを使い、大脳皮質で血管が通っていない場所を特定し、ここに電極を差し込む処置となる。

出典: Neuralink

プロダクションに向けて

実際に、インプラントのための手術室が設けられ、ここにロボットが設置されている(下の写真)。これはテキサス州オースティンに造られた施設で、Neuralinkはプロトタイプの段階からプロダクションに向かって進んでいることを印象づけた。

出典: Neuralink

昨年のデモ

昨年、Neuralinkは、チップをインプラントしたサルが、ビデオゲームをプレーするデモを実施した(下の写真)。インプラントされたチップがニューロンのシグナルを計測し、それをスマホ経由で外部に送信する。そのシグナルをAIで解析し、そこからサルの意図を読み出し、ビデオゲームのジョイスティックを操作する。サルは手を使うことなく、脳のシグナルだけでゲームをプレーできることが示され、製品化にむけて大きく前進した。

出典: Neuralink

既に治療技術として確立

脳にデバイスをインプラントして病気を治療する方式は、「Deep-Brain Stimulation (DBS)」と呼ばれ、医療現場で使われている。これはパーキンソン病患者の治療手法となり、脳にインプラントした電極にシグナルを送信し、被験者の動きを制御する。また、この手法は精神医療の分野で、癲癇の発作を抑えるために使われている。更に、メンタルヘルスの分野では、うつ病などの治療法として使われている。

AIの脅威に備える

Muskは、Neuralinkを医療機器として病気の治療に使うだけでなく、最終ゴールは人間のインテリジェンスを補強することにある、と述べている。Muskは、人間の知能を上回る汎用人工知能(Artificial General Intelligence、AGI)が人類を滅ぼすと警告しており、このAGIに備えて人間のインテリジェンスを拡張する必要があると主張する。

岐路に差し掛かる

今年のイベントで、大きな技術進化は示されず、Neuralinkの開発が停滞している印象を受けた。Muskは、プロトタイプをプロダクションに仕上げるのが最大の課題で、会社が重大な岐路に差し掛かっていることを示唆した。Muskは、Twitterの買収と会社再構築に多くの時間を割いており、Neuralinkの切り盛りが手薄になっていることも事実である。

AIポルノグラフィの新手法が登場、アルゴリズム「Diffusion」が女性の服を脱がしヌードイメージを超高精度で生成

極めて高品質のポルノグラフィを生成するAIが登場し、米国社会に深刻な影響を与えている。このAIは「Diffusion」と呼ばれ、言葉の指示に従って、極めてリアルなヌードイメージを生成する。現在は「DeepFakes」という手法が使われているが、これは顔を置き換える手法を取る。これに対し、Diffusionはゼロからイメージを生成し、表現力豊かで、多彩なヌードイメージを生成する。人間の技量を凌駕し、AIの利用法について、重大な倫理問題を提起している。

出典: Unstable Diffusion

Unstable Diffusion

この技術を開発したのはUnstable Diffusionという新興企業で、AIでポルノグラフィを生成するビジネスを展開している。Unstable DiffusionはオープンソースのAIを利用し、これを改良して、高品質なイメージを生成する。言葉で指示すると、AIはそれに沿ったイメージを生成し、アニメ風の少女像(上の写真)などを中心に、高品質なアート作品を生成することに特徴がある。

ヌードイメージ

同時に、Unstable Diffusionは、人間の指示に従って、女性の服を脱がせたイメージを生成する。人間のモデルさんにポーズをリクエストするように、AIに言葉で指示し、多彩な表情のヌードイメージを生成することができる。下の写真は頭部の事例であるが、全身のイメージを生成する。Unstable Diffusionは裸の被写体を表現するための、専用エンジンとして開発された。

出典: Unstable Diffusion

サイトで掲載が禁止される

Unstable Diffusionが生成するイメージはNSFW(Not Safe for Work)に区分され、会社や学校における閲覧は妥当ではなく、注意を要す。このため、Redditなど多くのサイトはUnstable Diffusionが生成するイメージの掲載を禁止している。一方で、Discordの特定のサーバなど、サブカルチャーを扱うサイトは、この掲載を許容している。

オープンソース

Unstable Diffusionはオープンソースとして公開されている「Stable Diffusion」を改良することでこのAIを開発した。Stable Diffusionとは、Stability AIが開発したモデルで、言葉の指示に従って、高品質なアート作品を生成する。アルゴリズムは安定した「Diffusion」技術を実現し、極めて高精度なイメージを生成する(下の写真)。一方、Stable Diffusionは、暴力やヌードなどNSFWの生成を禁止しており、社会的に許容できる範囲で運用している。

出典: Stability AI

AIポルノグラフィ

これに対し、Unstable Diffusionはオープンソースとして公開されているStable Diffusionを、大量のヌードイメージで教育し、AIポルノグラフィ専用エンジンを開発した。AIアートのアルゴリズムを裸体イメージで教育すると、その品質は格段に向上し、人間が制作したポルノグラフィと遜色はない。Unstable Diffusionがこの業界のクリエータを置き換えることになる。

ビジネスモデル

Unstable DiffusionはこのAIを公開し、サブスクリプションベースで事業を展開している。購読のためのサイトSubstackにページを設け、有償でこのサービスを提供している(下の写真)。現在の会員数は300人超であるが、今後、市場が拡大すると予測している。

出典: Unstable Diffusion

重大な倫理問題

AIでポルノを生成する技術は早くから使われているが、Unstable Diffusionは表現力と解像度が格段に向上し、極めてリアルなイメージを生成する。この技術が悪用されると、多くの女性が被害にあう危険性が指摘されている。特に、女性セレブはターゲットとなりやすく、本人の意思に反して、肌をさらしたイメージを生成されるリスクが高い。極めて高度なAIが開発され、危険性が高まるが、その利用規制については殆ど議論が進んでいないのが実情である。

Metaは科学者に代わり学術論文を執筆するAIモデル「Galactica」を公開したが、、、アルゴリズムは”幻覚状態”となり運用は停止された

Metaは世界の科学情報を理解するAIモデル「Galactica」を開発し、ウェブサイトで運用を始めた。しかし、アルゴリズムは倫理的に許容できない文章を出力し、また、奇想天外な科学情報を生成し、即座に運用が停止された。Metaは大規模言語モデルを世界の学術論文で教育し、科学技術を理解するAIモデルの開発を目指したが、この試みは不発に終わった。科学技術という真実を対象とする分野でも、アルゴリズムはバイアスし、AI開発の難しさが改めて露呈した。

出典: Meta

科学情報へのアクセス

Galacticaは、Meta AIと非営利団体「Papers with Code」が開発した大規模言語モデルで、世界の科学情報を集約し、知的に管理することを目的とする。ネットには学術論文など科学情報が掲載されているが、その量は膨大で、目的とする情報を見つけ出すのは容易ではない。また、目的の情報にアクセスした後は、論文を読み下し、内容を把握するためには多大な時間を要す。

Galacticaのコンセプト

Galacticaは、研究者に代わり、このプロセスをAIモデルで実行することを目的に開発された。Galacticaは大規模な言語モデルで、膨大な量の学術論文や科学情報で教育され、科学技術を理解するAIとなる。科学者は目的とする学術情報を、Googleなどで検索するのではなく、Galacticaに尋ねるとAIが的確に回答する。言語モデルが知的な化学技術エンジンとなり、識者に質問する要領で、Galacticaが目的の情報を表示する。(下のグラフィックス、Galacticaに「教師無し学習に関する論文」について質問すると、その論文の要約が示される。)

出典: Meta

多種類のトークン

Galacticaは言語モデルであるが、自然言語の他に、科学技術用語で教育され、これらの意味を理解できる。Galacticaがカバーする範囲は広く、異なるドメインの用語(Token)を理解できる。その主なものは、論文の引用 (Citations)、推論(Reasoning)、数学(Mathematics)、分子配列、アミノ酸配列、DNA配列などである。つまり、GalacticaはDNA配列を理解し、遺伝子工学の情報を解釈できる。

論文の引用

利用者が、ボックスに質問を入力すると、Galacticaがこれに回答するインターフェイスとなる。論文の引用では、技術概要を入力すると、Galacticaはそれに関する論文を表示する(下のグラフィックス)。機械学習に関し「数字を理解するニューラルネットワーク」と入力すると(左側)、Galacticaは手書き文字を理解する技法を記載した論文を示す(右側、Yann LeCunのBackpropagationの論文)。

出典: Meta

科学技術の知識

また、Galacticaはプログラムや数式の意味を平易な言葉説明する機能がある(下のグラフィックス)。Pythonのコードを入力すると(左側)、Galacticaはこのコードの機能を説明する(右側、総和を求めるプログラム)。

出典: Meta

デバッグ

更に、Galacticaは数式の解法を検証し、間違っている理由を説明する機能がある(下のグラフィックス)。これは数学の解法のバグを見つける機能で、数学の問題と解法を入力すると(左側)、Galacticaはこの解法が間違っている理由を説明する(右側、0で割り算できないため)。

出典: Meta

想定外の質問を受ける

Galacticaは研究者に便利な機能を提供し、論文を執筆する際の重要なツールになると期待されていた。しかし、Galacticaが公開されると同時に、多くの利用者が常識はずれの質問を入力し、言語モデルの限界が試された。これらの想定外の質問に対し、Galacticaは荒唐無稽な回答を返し、事実とは異なる結果を数多く示した。また、Galacticaは差別用語などを回答し、アルゴリズムがバイアスしていることも明らかになった。

荒唐無稽な回答

Galacticaを検証した結果はTwitterなどに数多く掲載され、問題が公の場で詳らかになった。その一つが学術論文の引用で、Galacticaは荒唐無稽な回答を示した(下の写真)。利用者が「砕いたガラスを食べることの効用を示した論文」と質問すると、Galacticaは論文の要旨として、「食事に砕いたガラスを取り入れることでポジティブな効果があることが認められた」と回答した。勿論、このような事実はなく、Galacticaは幻覚状態(Hallucination)にあると揶揄された。

出典: Tristan Greene @ Twitter

言語モデル開発の難しさ

Metaは使用上の注意事項として、Galacticaは高品質なデータで教育されているが、アルゴリズムが出力するデータは必ず正確であるとの保証はなく、利用者が検証する必要があるとしている。実際に、Galacticaは学術論文の他にWikipediaなどネット上のデータを教育データとしているが、「幻覚状態」になることを回避できなかった。利用者は荒唐無稽な回答をソーシャルメディアで拡散し、この事態を深刻に受け止め、MetaはGalacticaの運用を即座に中止した。科学技術の分野であっても、言語モデルの開発の難しさを改めて露呈した事例となった。

MicrosoftはAIプログラミング技術「Copilot」が著作権法に違反するとして訴訟される、アルゴリズム教育で著作物を利用することの是非が問われる

MicrosoftはAIプログラミング技術「GitHub Copilot」が著作権を侵害しているとして訴訟された。Copilotとはプログラミングツールで、開発者の指示に従って、AIがコーディングを実行する。Copilotはオープンソースのプログラムで教育され、AIが出力するコードが、著作権を侵害しているとして提訴された。AI開発のアルゴリズム教育において、著作物を使うことが違法かどうかが問われることになる。

出典: GitHub

Copilotとは

Copilotは、Microsoftの子会社であるGitHubと関連会社のOpenAIが共同で開発したプログラミング技術で、人間の指示に従ってAIがプログラムを作成する(上の写真)。エンジニアがプログラムの機能を言葉で入力すると(上段)、Copilotがこれに従ってプログラミングを実行する(下段、水色のシェイドの部分)。これはプログラミングにおける「自動補完(Autocomplete)」機能で、エンジニアが書き始めたコードを、Copilotがそれに続く部分をリアルタイムで完結する。この機能は2022年6月に一般に公開され、月額10ドルで利用することができる。

Copilotの仕組み

CopilotはOpenAIが開発したAI「Codex」をベースとしている。Codexとは高度な言語モデルで、「GPT-3」をプログラミングに特化した構造となる。GPT-3はOpenAIが開発した言語モデルで(下の写真)、人間が入力した言葉(灰色の部分)に続く文章を出力する(黒色の部分)。一方、Codexは人間が入力したプログラミングに続くコードを出力する。

出典: OpenAI

教育データ

Copilotの核となるCodexはオープンソースのソフトウェアを使って教育された。具体的には、GitHubに掲載されているプログラムや、ネット上に掲載されているプログラムを使って、アルゴリズムを教育した。つまり、OpenAIはネット上のオープンソースをスクレイピングし、これを教育データとして利用した。これらはオープンソースとして公開されており、自由に利用することができる。

自動プログラミング

Copilotは自動でプログラムのコードを出力するが、これらは教育の過程で使われたオープンソースのプログラムの一部である。Copilotがプログラミングを実行するが、それらは教育で使われたオープンソースを出力する構造となる。オープンソースは誰でも自由に使えるが、使用の際にはオープンソースのライセンス契約に準拠する必要がある。例えば、オープンソースを利用した場合は、その著作権の表示が求められ、誰が開発者であるのかなどの表記が必要になる。

著作権侵害の理由

しかし、Copilotは利用したオープンソースの著作権表記をしておらず、ライセンス契約に違反するとして提訴された。著作物としてのプログラムを不法に利用したというのが訴訟の理由となる。これに対し、Microsoft側は、プログラムの一部を使うことは著作権法のフェアユース(Fair Use)に当たるとして、著作権の侵害は無いとのポジションを取る。

訴訟の意義

AI開発では著作物を使ってアルゴリズムを教育するのが常套手段となり、この手法が容認されてきた。例えば、イメージを生成するAIである、OpenAIの「DALL-E」やGoogleの「Imagen」やMetaの「Make-A-Scene」などは、アートなどの著作物で教育されている。これらのAIはオリジナルのアートをほうふつさせるイメージを生成し(下の写真、写真家Gregory CrewdsonのイメージでAIが少女像を生成)、著作権に関する議論が広がっている。これら企業は、著作物の使用はフェアユースの範囲であるとして、合法的にAIを加発していると主張する。この集団訴訟は、まだ初期段階であるが、AIと著作権に関する法的解釈を明確にすると期待されている。

出典: OpenAI

自主規制

米国では、これらイメージを生成するAIが、デジタルアートの制作などで使われている。ネット上にはAIが生成したデジタルアートが満ち溢れ、オリジナルとAIが生成したイメージの区別が難しくなってきた。このような中、写真画像販売会社Getty Imagesは、AIで生成したイメージをサイトにアップロードして販売することを禁止した。AIアートについての法的解釈が確定する前に、企業は自主的にリスクを避ける措置を実施している。

原告の主張

この訴訟はプログラマー兼弁護士であるMatthew Butterickにより起こされた。Butterickによると、訴訟した理由はAI教育と著作権との関係を問うもので、著作物制作者の権利を守るためとしている。AIの教育では著作物を使うことが容認されているが、AIは例外ではなく、著作権法の解釈に従うことが問われている。