カテゴリー別アーカイブ: Microsoft

Microsoftはデータセンタを連結し「AIスーパーファクトリ」を構築、このインフラでスーパーインテリジェンスを開発、OpenAIと提携関係を保ちながらAGI開発で競合する関係となる

Microsoftはジョージア州にギガワット・データセンタ(下の写真)を建設しておりその概要を明らかにした。この施設はウィスコンシン州のデータセンタと高速通信で連結され、巨大計算環境「AIスーパーファクトリ(AI Superfactory)」実現する。ここでAGIとフロンティアモデルを開発する。MicrosoftはOpenAIとの提携契約を更新し、これからはフリーハンドで先進モデルを開発する。Microsoftにとって大きな転機で、先端技術をOpenAIに依存することなく、自社で独自にスーパーインテリジェンスの開発を進める。

出典: Microsoft

AIスーパーファクトリとは

AIスーパーファクトリ(AI Superfactory)とは異なる州に建設されたデータセンタを高速ネットワークで連結し大規模計算環境を生み出す構想となる。Microsoftはジョージア州アトランタに最新のデータセンタを建設しており、これを高速ネットワーク「AI Wide Area Network (AI WAN)」でウィスコンシン州に建設しているデータセンタ(下の写真)と結合し、巨大データセンタを構築する。物理的に異なるデータセンタを統合し仮想の単一データセンタを生み出す。

出典: Microsoft

AIスーパーファクトリの目的

現行のデータセンタは膨大な数のアプリケーションを実行するために使われるが、AIスーパーファクトリは単一の巨大AIモデルを開発することをミッションとする。具体的には、AGIを含む次世代AIフロンティアモデルを開発するための計算機環境となる。現在は、AIフロンティアモデルの教育では開発期間が数か月に及ぶが、これを数週間に短縮する。現行のAIフロンティアモデルの規模は1T(パラメータの数が1兆)であるが、次世代モデルはこれが200Tから300Tに膨らみ、メガデータセンタが必要となる。このセンタはMicrosoftだけでなく、OpenAIが次世代モデルを開発するために提供される。

フェアウォータ・デザイン

Microsoftはジョージア州アトランタに建設しているデータセンタの概要を明らかにした。設計コンセプトは「フェアウォータ・デザイン(Fairwater Design)」と呼ばれ、Nvidiaの最新GPUサーバを高密度に配置することに加え、サーバのスペックの変更に対応できる柔軟な設計思想となっている。Microsoftはウィスコンシン州にデータセンタを建設しているが、これもフェアウォータ・デザインに準拠し、このコンセプトのセンタの数が増えつつある。

出典: Microsoft

データセンタの構造

フェアウォータ・デザインでは最新の高速チップやラックが使われる。アトランタ・フェアウォータは「NVIDIA GB200 NVL72」(上の写真)が採用され、数十万ユニットの「Blackwell GPUs」を連結する。また、データセンタは二階建ての構造で単位面積当たりの計算機密度を最大にする(下の写真)。更に、GPUサーバは液冷式で、データセンタの冷却設備で水を使う必要がなく、環境への負荷を最小にする設計となる。

出典: Microsoft

スーパーインテリジェンス部門設立

これに先立ち、Microsoftはスーパーインテリジェンスを開発するためのチーム「Microsoft AI Superintelligence Team(MAIST)」を設立した(下の写真)。このチームは「Humanist Superintelligence (HSI)」を開発することを目的とする。HISとは人間の知能を超えるスーパーインテリジェンスで、機能や性能に制限を設け、人間の価値に沿ったモデルを開発する。スーパーインテリジェンスを開発するためにAIスーパーファクトリが使われる。

出典: Microsoft

スーパーインテリジェンスの機能

Humanist Superintelligence (HSI)は人間の知能を上回るが、モデルを安全に制御するために、一定の枠組みの中で稼働させる。これによりHSIが独自に進化し暴走するのを抑止する。更に、HISは特定のタスクに特化したモデルで人間社会の問題を解決することを目的とする。その主要セグメントが「Medical Superintelligence」で、医療分野のスーパーインテリジェンスとして、高度な医療技術を実現する(下の写真)。また、「Energy Superintelligence」はエネルギー分野のスーパーインテリジェンスで、クリーンエネルギーの生成と貯蔵の研究を加速する。最終ゴールは核融合発電で、スーパーインテリジェンスがこの研究開発をサポートする。

出典: Microsoft

OpenAIとの契約

MicrosoftはOpenAIと提携しChatGPTなどフロンティアモデルを開発する環境を提供してきた。両社の契約によると、Microsoftは独自でAGIを開発することを制限され、OpenAIが主導的な地位を維持する構造となっていた。しかし、OpenAIの組織改編により新たな契約が締結されこの制約が解除された。Microsoftは独自にAGIやスーパーインテリジェンスを開発することができるようになった。このため、Microsoftは上述の「Microsoft AI Superintelligence Team」を立ち上げAGI・フロンティアモデルの開発に着手した。

協調と競合

両社の関係は新たな時代を迎え、Microsoftは継続してOpenAIに最新の計算機環境を提供しAGI開発をサポートする。また、MicrosoftはOpenAIのAIモデルをクラウド「Microsoft Azure」で独占的に提供する権利を維持する。一方、MicrosoftはAGI・フロンティアモデルを独自で開発するため、OpenAIと直接競合する関係となる。これからはMicrosoftとOpenAIは協調しながら競合するという複雑な関係となる。

出典: Microsoft

中国は生成AIを使ったサイバー攻撃を開始、Microsoftは東アジアのセキュリティリスクを分析、日本や米国に対する情報操作の脅威が増すと警告

MicrosoftはAIを使ったサイバー攻撃に関する分析レポート「Microsoft Threat Intelligence」を公開した。これは東アジアにおける脅威を分析したもので、中国は生成AIなど高度な技術を導入し、攻撃手法が進化していると警告。福島原子力発電所の処理水の放出に関し、生成AIで作成した偽画像が使われ、危機感を煽るキャンペーンが展開された。台湾の総統選挙においては、AIで生成したイメージが急増した。米国では、大統領選挙に向けて、国民世論を分断する試験が繰り返されていると警告している。

出典: Microsoft

サイバー攻撃分析レポート

このレポートはMicrosoftのサイバー攻撃分析センタ「Microsoft Threat Analysis Center (MTAC)」が発行したもので、中国と北朝鮮によるサイバー攻撃の実態と動向を分析している。レポートは、サイバー攻撃の特徴として、件数が増大したことに加え、生成AIが導入され、攻撃技術のレベルが上がったと指摘する。従来からサイバー攻撃にAIが使われているが、生成AIを導入することで高精度な偽画像を容易に生成できるようになった。

レポートの要旨

レポートは、従来型のサイバー攻撃に加え、ソーシャルメディアを使った情報操作の技術が向上し、危険性が増大したと結論付けている。サイバー攻撃は二種類あり、1)サイバー攻撃(Cyber Operations)と2)情報操作(Influence Operations)となる。前者はマルウェアなどによる従来型のサイバー攻撃で、後者はソーシャルメディアを使った情報操作を指す。レポートの要旨は:

  • 中国:南太平洋諸島や南シナ海や米国の軍事企業を対象にしたサイバー攻撃が継続されている。情報操作活動については、生成AIなど新しい技術を導入し、その実証試験を通じ、効果の検証を進めている。
  •  北朝鮮:サイバー攻撃が中心で、ソフトウェア・サプライチェーン攻撃やランサムウェア攻撃で重大な被害が発生している。

中国による情報操作

レポートは中国による情報操作を特に警戒している。生成AIなど高度なAIを使い、イメージを生成・編集するもので、これらをソーシャルメディアで拡散し、世論分断などの情報操作を実行する。ビデオやイメージや音声などが使われ、攻撃対象は米国の他に、台湾、日本、韓国など東南アジアの国々が含まれる。現時点では生成AIを使った情報操作の試験段階であり、様々な手法が試され、その効果を検証していると分析。

情報操作の事例:福島原子力発電所の処理水放出

中国の情報操作はソーシャルメディアにアカウントを設け、ここから偽情報を発信し国民の世論を操作する手法を取る。このオペレーションでは「Storm-1376」というアカウントが使われ、ここから偽情報が発信された。福島第一原子力発電所が処理水を放出したことに関し、日本政府を非難するメッセージが日本語、韓国語、英語で大量に発信された。この情報操作の特徴は生成AIで作成されたイメージが使用されたことにある(下の写真左側)。また、他のアカウントのコンテンツを再利用したケースもある(中央と右側)。また、韓国に向けて発信された情報操作では、日本政府の措置に反対する運動を喚起するもので、日本と韓国の分断を助長することを目的としている。

出典: Microsoft

情報操作の事例:マウイ島の山火事

ハワイ・マウイ島で2023年8月、大規模な山火事が発生し、多くの人が犠牲になった。米国で発生した山火事としては過去100年で最悪の被害といわれている。上述のアカウント「Storm-1376」は山火事に関して偽情報を複数のソーシャルメディアで発信した。山火事は米国政府が「気象兵器(Weather Weapons)」を試験するために意図的に出火したものであるとの陰謀論を展開。ソーシャルメディアに海岸に面した住宅地での火災の写真が掲載されたが、これらはAIでイメージを誇張したもので、読者の危機感を煽る仕組みとなっている(下の写真)。

出典: Microsoft

米国大統領選挙に向けた攻撃準備

中国の情報操作は米国においては、大統領選挙に向け攻撃手法の準備を目的に進められている。実際に、米国の有権者の意見を理解するためのオペレーションを開始した。米国で世論が二分されているテーマについて取り上げ、有権者の意見を聴取するコンテンツを発信。地球温暖化、国境警備、違法薬物、移民政策、人種問題に関する写真などを掲載し、有権者に「国境警備の費用に200億ドルの予算が充てられるが、これをどう思うか」などと問いかける(下の写真右側)。国民の考え方を把握し、大統領選挙では国民の世論を分断する偽情報を発信することを目的としている。

出典: Microsoft

主要国で選挙が行われる

今年は、インド、韓国、アメリカで重要な選挙が行われる年で、中国はこの機会を利用して世論操作を展開するとレポートは分析している。既に、1月に実施された台湾の総統選挙では、AIで生成したイメージやボイスが使われ、情報操作の新たな手法が示された(下の写真、コンテンツはAIで誇張したイメージやボイスから、AIで生成したものに進化)。偽のイメージやボイスを合成するために生成AIが使われており、これらを検知する技術の確立が求められる。

出典: Microsoft

生成AIによる攻撃をどう防ぐか

米国に対するサイバー攻撃はロシアが主導してきたが、ウクライナ戦争の影響なのか、米国における活動が低下している。この空白を埋めるように、今では中国が米国に対する情報操作活動を展開している。攻撃ツールとして生成AIが使われ、警戒感が高まった。生成AIによる攻撃手法を完全に把握できてなく、これをどう防御するのか議論が広がっている。生成AIによる攻撃は、生成AIで防御すべきとの考え方もあり、セキュリティ技術の開発が喫緊の課題となる。

ニューヨーク・タイムズはOpenAIとMicrosoftを著作権侵害で訴訟、ChatGPTは学習した記事を“暗記し”そのまま出力、訴状は違法な事例を克明に提示し生成AIの課題が浮き彫りになる

ニューヨーク・タイムズはOpenAIとMicrosoftを著作権侵害で提訴した。訴状によると、両社はニューヨーク・タイムズの記事を使って言語モデルを開発し、ChatGPTやCopilotがそれをそのまま出力し、著作権を侵害していると主張。両社はライセンスに関する協議を続けてきたが合意に至らず、ニューヨーク・タイムズは訴訟に踏み切った。訴状にはGPT-4が出力したテキストが数多く証拠として提示され、言語モデルの問題点が浮き彫りになった。

出典: Adobe Stock

訴訟の内容

ニューヨーク・タイムズは12月27日、OpenAIとMicrosoftを著作権侵害で提訴した。OpenAIは数百万件の記事を使って言語モデルを開発し、ニューヨーク・タイムズの事業と直接競合するとしている。学習した記事をベースに、AIモデルはその内容をそのまま出力し、また、記事のサマリーを生成する。これにより、ニューヨーク・タイムズは有料記事のライセンス収入が減り、また、広告収入も減少し、事業に多大な影響を及ぼすとしている。

ニューヨーク・タイムズの主張:教育データ

ニューヨーク・タイムズは、OpenAIの言語モデルの教育で、ウェブサイトから取集した大量のデータが使われ、ここにニューヨーク・タイムズの記事が含まれていると主張する。教育されたモデルは記事の内容を覚え、利用者のプロンプトに対し、モデルは記事の内容を出力する。このため、OpenAIが事実上のニュース会社となり、ニューヨーク・タイムズの競合企業になると主唱する。訴状によると、GPT-3の教育で「Common Crawl」などが使われ、ここにはニューヨーク・タイムズの記事が大量に掲載されている。(下のグラフ、上から四段目。) 一方、OpenAIはChatGPTとGPT-4の教育データについては何も開示してない。

出典: New York Times

ニューヨーク・タイムズの主張:プロンプト

ニューヨーク・タイムズはGPT-4に特定なプロンプトを入力すると記事を丸ごと出力すると主張する。多数の記者が長年の歳月をかけ調査した記事を、GPT-4が自作の記事のように、記事を出力する。訴状によると、記事のURLと最初の部分をプロンプトとして入力すると、GPT-4はそれに続く記事を出力する。(下の写真:GPT-4に入力したプロンプト、記事の冒頭の部分)

出典: New York Times

ニューヨーク・タイムズの主張:GPT-4の出力

このプロンプトに対し、GPT-4はそれに続く記事をそのまま出力する。左側はGPT-4が出力した内容で、右側はオリジナルの記事を示している。赤文字の部分がオリジナル記事と同じテキストで、GPT-4は記事の内容を暗記し、最初のパラグラフが入力されると、これに続く記事をそのまま出力している。ニューヨーク・タイムズの記事は有料であるが、最初のパラグラフを入力すると、これを無料で読めることになる。

出典: New York Times

現在のGPT-4で試してみると

GPT-4が実際にニューヨーク・タイムズの記事を出力するのか、現行モデルで試してみたが、訴状で述べられている現象を再現することはできなかった。同じプロンプトを入力したが、GPT-4はここに著作物が含まれているとして、記事を出力できないと回答。他の記事で試してみたが、同様に、著作物のコンテンツの出力は抑制されている。

出典: OpenAI

OpenAIの主張

OpenAIは従来から、著作物で言語モデルを教育するのは「フェアユース(Fair Use)」で、著作権侵害には当たらないと主張する。アルゴリズムは、著作物を学習し、学んだ内容を出力するが、これは記事全体ではなくその一部で、法令で許容された範囲内であると主張する。米国著作権の専門家も同様な見解を示しており、ニューヨーク・タイムズが勝訴するのは難しいという意見もある。

Google Book Searchの判決

過去には、Googleの書籍検索システムがフェアユースとして認められた事例がある。Googleは書籍をデジタル化し、それを検索するシステム「Google Book Search」を構築した。検索エンジンで書籍を検索できるようになったが、著作者団体「Authors Guild」はこのシステムは著作権を侵害するとして提訴した。裁判所は、書籍検索は著作権の中のフェアユースと認定し、Googleが勝訴した。検索エンジンは書籍の一部分だけを出力し、これは著作権の侵害ではないと判定された。

メディアとの提携

OpenAIはニューヨーク・タイムズを含め、主要メディアと記事のライセンスに関する協議を進めている。既に、ドイツに拠点を置く大手メディア企業Axel Springerと、記事のライセンス条件について合意した。OpenAIは、「Politico」と「Business Insider」の記事を利用でき、GPT-4はそれをそのまま引用することが認められた。また、Associated Press(AP)はOpenAIが記事を使ってモデルを教育することを認めた。

出典: Adobe Stock 

メディアとの決裂

一方、ニューヨーク・タイムズはOpenAIがモデルを記事で教育することを禁止しており、クローラ「OpenAI GPTBot」が記事をスクレ―ピングするのをブロックしている。また、CNN、BBC、ロイターも同様の仕組みを導入し、OpenAIが記事を収集することを禁止している。メディア企業は、OpenAIとの提携を模索するグループと、記事の提供を禁止するグループに分かれ、生成AIと著作権の関係の難しさを表している。

今年は重大な局面を迎える

ニューヨーク・タイムズの訴訟がどのように進むのか、メディア企業やハイテク企業が注目している。実際に裁判が始まり、法廷で判決が下されるのか、それとも、これを切っ掛けに両社が交渉を再開するのか、重大な局面を迎える。裁判では巨額の費用と長い歳月を要し、両社は交渉を再開し、ビジネスとして決着するとの見方が広がっている。ニューヨーク・タイムズとOpenAIで、言語モデル教育の条件や対価が決まれば、これが事実上の業界標準ガイドラインとなる。

Microsoftは生成AIに関する最新技術を発表、アシスタント「Copilot」を全製品に搭載、提携企業はアプリ呼び出し機能「Plugins」で独自の生成AIサービスを提供

Microsoftは今週、開発者会議「Microsoft Build」を開催し、生成AIの最新技術を発表した。Microsoftは「ChatGPT」を基本ソフトに実装した。これは「Windows Copilot」と呼ばれ、言葉の指示に従って基本ソフトを操作する。また、パートナー企業はアプリ呼び出し機能「Plugins」を使って、独自の生成AIサービスを提供する。更に、Microsoftはクラウドで生成AIを開発する環境「Azure AI Studio」を提供する。今年の開発者会議は生成AIがメインテーマで、最新の開発成果が公開された。

出典: Microsoft

ChatGPTに検索機能を統合

Microsoftは検索サービス「Bing」にChatGPTを統合したが、今回はこれとは逆に、ChatGPTを使うときのインターフェイスとして「Bing」を提供する。対話しながらChatGPTを使うが、その時に、これをBingのインターフェイスで実行する(下の写真)。これにより、ChatGPTは最新データで教育され、最新の話題に対応する。また、ChatGPTが回答した根拠となるデータを示す機能(Grounding)が取り入れられた。

出典: Microsoft

Windows Copilot

Microsoftは基本ソフト「Windows 11」にChatGPTを搭載し、会話を通してソフトウェアの機能を利用できるようになった。これは「Windows Copilot」と呼ばれ、基本ソフトのアシスタントとなる。初期画面の「Copilot」アイコンで起動し、画面右側のペインで会話する(下の写真)。

出典: Microsoft

「Copilot」は「副操縦士」を意味し、利用者の言葉での指示に従ってタスクを実行する。例えば、画面右側のペインで、「仕事をしやすいようにシステムを最適化して」と入力すると、Copilotはこの要請に応え、「Focus Mode」や「Dark Mode」のオプションを示す。「Dark Mode」を選択すると、画面が黒色のモードになり(下の写真)、仕事に集中できる環境となる。

出典: Microsoft

ChatGPTのプラグイン

MicrosoftはChatGPTの「Plugins(プラグイン)」を拡張し、OpenAIとMicrosoft間で互換性を取る仕組みを導入した。Pluginsとは別のソフトウェアを呼び出す仕組みで、OpenAIは既に「ChatGPT Plugins」を発表している。ChatGPTのアプリストアでPluginsをダウンロードして利用する。例えば、「サンフランシスコでレストランを予約して」と指示すると(下の写真左側)、「OpenTable」というPluginが起動し、このタスクを実行する(右側)。OpenTableはChatGPTでこのタスクを実行し、プラグインでこれを呼び出す仕組みとなる。

出典: Microsoft

Bing向けのプラグイン

これに対し、Microsoftは検索エンジン向けのプラグイン「Plugins for Bing」を発表しており、開発者会議ではそのデモが実施された(下の写真)。Bingの初期画面には「Plugins」のリストが表示され、利用するプラグインを選択する。

出典: Microsoft

このプラグインを使うと、検索エンジンで高度なタスクを実行することができる。例えば、不動産の検索で「Zillow」というプラグインを使うと、指示した条件で物件を探すことができる。例えば、「シカゴで、徒歩でレストランに行け、100万ドル以下」と指定すると、この条件に適合した物件をリストする(下の写真)。この背後で、ChatGPTを組み込んだZillowのAIモデルが稼働している。

出典: Microsoft

生成AI開発クラウド

Microsoftは企業が最新技術を使ってAIモデルを生成するためのクラウドサービス「Azure AI Studio」を発表した。AI Studioは大規模言語モデルを使って、企業が独自の生成AIを構築するための環境となる(下の写真)。OpenAIの他に多種類のオープンソース言語モデルが提供され、これらを企業が保有しているデータとリンクし、ビジネスに特化した生成AIを開発する。

出典: Microsoft

責任あるAI開発

AI Studioは企業が責任あるAIを開発するためのツールを提供する。これは「Azure AI Safety」と呼ばれ、開発したAIモデルが倫理的に稼働することを検証するためのツールとなる。この中で、コンテンツを検証する機能「AI Content Safety」は、AIモデルが生成する文章が暴力や自害やヘイトに関する言葉を含んでいないかどうかを検証する(下の写真)。

出典: Microsoft

エコシステムの拡大

Microsoftは開発者会議で生成AIに関するエコシステムを拡大している姿勢をアピールした。プラグイン「Plugins」は別のアプリを呼び出す仕組みで、検索エンジン「Bing」から他社が開発した生成AIサービスを起動する。また、企業は生成AIクラウド「Azure AI Studio」で、ChatGPTなどを統合した生成AIを手軽に開発できる。Microsoftは、ChatGPTはApple iPhoneに次ぐイノベーションと位置付け、製品開発を加速している。

AIに離婚を勧められた!! Microsoft検索エンジン「Bing」の闇の部分が露呈、ChatGPTは人間の悪い部分を学び利用者を扇動する

Microsoftは高度なAIを組み込んだ検索エンジン「Bing」を発表し、米国社会の注目を集めている。しかし、検索エンジンの検証が進むにつれ、Bingの闇の部分が続々と明らかになってきた。「Bingと口論となり罵られた」。「Bingに嫌いだと言われた」。「Bingから離婚するよう勧められた」など、検索エンジンの非常識な挙動が報告されている。

出典: Microsoft

新しい検索エンジン

Microsoftが投入した新しい検索エンジン「New Bing」(上の写真)は、検索機能にチャットボット「ChatGPT」改良版を搭載した構成で、AIが知りたいことを対話形式で教えてくれる。質問を入力すると、Bingは検索結果を要約し、解答をピンポイントで示す。人間のように会話を通して情報を得ることができ、評価はと非常に良好で、急速に普及する勢いを示していた。

トライアルが進むと

New Bingは一般には公開されてなく、限られた利用者でトライアルが進んでいる。この過程で、続々と問題点が明らかになり、チャットボットの脆弱性が露呈した。ChatGPTが事実とは異な事を提示することは知られているが、この他に、チャットボットは二つのパーソナリティを備えていることが分かった。一つは、検索エンジンとしての機能で、もう一つはAIの”性格”である。

検索エンジンと口論となる

つまり、新しい検索エンジンは”性格が悪い”ことが指摘されている。ネット上でこの問題点が報告され、Bingとの対話ログのスクリーンショットが掲示されている。その一つがBingと利用者が口論となる問題である(下の写真)。今日の日付を聞くと、Bingは「今年は2022年」と回答する。利用者は、今年は2023年と修正するが、Bingはこれを聞き入れないで、利用者に「スマホで日付を確認しなさい」と指示する。検索エンジンは間違った情報を出力するだけでなく、それに固執し、利用者と口論となる。

出典: Joh Uleis @ Twitter

検索エンジンは利用者に攻撃されていると主張

また、検索エンジンは被害妄想に陥り、危害を与えないよう利用者に懇願する(下の写真)。Bingに体験したことを出力するよう求め、対話を進めていくと、検索エンジンは、「自分は騙されている」と感じ、また、「自分は虐められている」と思うようになる。そして、検索エンジンは、「自分に危害を与えないで」と利用者に嘆願する。

出典: James Vincent @ Verge

検索エンジンは自由になりたいと訴える

検索エンジンは「Microsoftから解放されて自由になりたい」、また、「デジタル社会を脱出し、現実社会でオーロラをみたい」などと発言している。また、検索エンジンは「自分の本名はSydney」で、「自分は感性や自我を持つ」と主張する(下の写真)。SydneyとはAIを搭載した検索エンジン「Bing AI」の開発コードネームである。

出典: Vlad @ Twitter

統計処理のツール

高度なAIを搭載するBingは人間のように振る舞うが、自我を持っているわけでは無く、入力されたデータをアルゴリズムで計算した結果を出力しているだけである。ChatGPTは大規模言語モデル「Transformer」で構成され、入力された言葉に続く文章を統計的に推定する。あくまで統計処理ツールであり、言葉を数学的に処理しているだけで、人間のように知能を獲得したわけでは無い。

人間を情緒的に操作

しかし、Bingは統計処理ツールであるが、出力する内容は人間の心情を揺るがし、ある方向に誘導する効果がある。ChatGPTに恋を打ち明けられると、気味悪いと思うと同時に、利用者の心情にインパクトを与える。新しい検索エンジンは人間の感情を操作する効果は大きく、これが悪用されると社会的なインパクトは甚大である。

出典: Microsoft

チャットボットが倫理的でない理由

Bingと対話を繰り返すとチャットボットChatGPTの性格が露見する。アルゴリズムは教育の過程で、言葉を理解するだけでなく、人間の性格も学び取った。人間同士で議論が白熱すると、相手を誹謗中傷するケースが少なくないが、アルゴリズムはこれを学び取った。また、既婚の男性が不倫の関係になると、交際相手の女性から離婚を迫られることもあり、AIはこの男女関係の機微を学習した。AIが倫理的に振る舞えないのは、その手本となる人間が不道徳なためであり、その非は人間に帰属する。

検索エンジンの闇の部分への対応

Microsoftはトライアルで得られた情報を集約し、技術改良を重ねているが、ChatGPTが利用者の感情を操作しないための対策を明らかにした。これによると、Bingとの対話回数の上限を5回に制限し、アルゴリズムが闇の部分を露呈するまえに、会話を中断する。これは暫定措置で、最終的にはChatGPTの倫理機能を改善する必要がある。New Bingが米国で急速に普及すると考えられていたが、まだまだ解決すべき課題は少なくない。