カテゴリー別アーカイブ: 人工知能

バイデン政権はAIの安全性に関するガイドラインを制定、OpenAIの「GPT-4」やGoogleの「PaLM 2」はモデルの安全検査を求められる

今週、バイデン大統領はGoogleやOpenAIなどAI企業7社と会見し、AIの安全性に関するガイドラインを発表した(下の写真)。これは「Voluntary Commitments」と呼ばれ、法的義務はない自主規制であるが、企業7社がこれに同意し、AIモデルの安全検査を実施する。このガイドラインは、アメリカ国民をAIの危険性から守ることに加え、中国などを念頭に、国家安全保障を強化する構造となっている。米国政府はAI規制法の準備を進めているが、このガイドラインが法案の骨格を構成し、AI規制政策の構造を理解できる。

出典: White House

ガイドラインの概要

バイデン政権はAIの安全性に関するガイドラインを公表し、開発企業はこの規定に沿って、モデルの安全性を検証することとなる。対象となるモデルは生成AIだけで、OpenAIの「GPT-4」と「DALL-E 2」、また、Googleの「PaLM 2」(Bardのエンジン)などに適用される。ガイドラインは「安全性」、「セキュリティ」、「信頼性」の三つの基軸から構成される。

  • 安全性 (Safety):モデルの安全性を検査。開発企業はアルゴリズムを検査し、AIが兵器開発に悪用される可能性など、危険性を洗い出す。
  • セキュリティ (Security):サイバー攻撃に備える。生成AIは国家安全保障にかかわる機密情報を含んでおり、サイバー攻撃に備え、情報管理を厳格にする。
  • 信頼性 (Trust):信頼できるAIを開発。生成AIで制作したコンテンツには、その旨を明示し、利用者に信頼できる情報を提供する。

安全性 (Safety)

ガイドラインは安全性に関し、AIモデルを検証することと、AIモデルに関する情報を共有することを求めている。AIモデルの検証では「Red-Teaming」という手法を推奨しており、社内だけでなく社外組織と共同でこれを実行する。(Red-Teamingとは、開発者がハッカー「Red Team」となり、モデルに様々な攻撃を行い、もう一方の開発者「Blue Team」がこれを防衛する手法で、アルゴリズムの脆弱性を把握し、モデルの危険性を理解する。)

出典: CrowdStrike

安全性 (Safety):モデルの危険性とは

この手法でモデルが内包する危険性を洗い出し、市民生活に及ぼすリスクの他に、サイバー攻撃などの国家安全保障に関する危険性も把握する。ガイドラインが懸念する主なリスクは:

  • 兵器製造:生物学兵器、化学兵器、核兵器開発にAIが悪用されるリスク
  • ハッキング:システムの脆弱性を検知するためにAIが悪用されるリスク
  • システム制御:AIがサイバー空間を超え物理装置の制御を奪うリスク
  • 社会問題:AIのバイアスや差別により社会に悪影響を与えるリスク

安全性 (Safety):情報共有と標準規格

ガイドラインは、各社がモデルを検証してこれらのリスクを査定するが、その検証結果を企業や政府と共用することを求めている。更に、リスクを査定する手法については、アメリカ国立標準技術研究所(NIST)が制定した「AI Risk Management Framework」に準拠することを推奨している。これは責任あるAI開発と運用を規定したフレームワークで、米国におけるAI技術の標準仕様書となっている。

セキュリティ(Security)

ガイドラインは、AIモデルに関する情報は知的財産で、これが盗用されないようセキュリティを強化することを求めている。外部からのサイバー攻撃と、内部関係者による盗用に備え、セーフガードを強化することを求めている。AIモデルの知的財産とは、アルゴリズムのパラメータ「Weights」を指し、開発企業はこれを厳重に守ることを求めている。(「Weights」とはアルゴリズムのパラメータの値を指す。「Weights」はアルゴリズムをデータで教育して決定する。生成AIは大規模なモデルで、Weightsを決定するには、スパコンを使って大規模な計算が必要となる。)

出典: OpenAI

信頼性(Trust)

ガイドラインは、生成AIが出力したコンテンツには、その旨を明記することを求めている。対象は、テキストの他に、オーディオやイメージで、利用者がその背景を正しく理解できることが重要としている。更に、開発企業に、オーディオやイメージに関し、その出典やウォーターマークを挿入するメカニズムの導入を求めている。また、開発企業に、AIモデルの機能だけでなく、制限事項や対象分野などをドキュメントとして公開することを求めている。これは「Model Card」といわれる手法で、AIモデルの取扱説明書となる。

信頼性(Trust):イノベーション

ガイドラインは、更に、高度なAIのイノベーションを進め、社会が抱えている問題の解決に寄与するよう求めている。これらはグランドチャレンジと呼ばれ、地球温暖化の抑止やがんの早期検知やサイバー攻撃への防御技術などで、AIがこれらの解法に寄与すべきとしている。更に、開発企業は、学生や労働者へAIに関する教育や啓もう活動を通し、皆がAIの恩恵を享受できるよう求めている。

出典: Adobe Stock

米国と欧州との違い

バイデン政権が制定したガイドラインは、生成AIに限定し、国民の安全を守ることに加え、国家安全保障を強化することを規定している。特に、生成AIの知的財産を守り、敵対国やハッカー集団に悪用されることを防ぐことに重点を置いている。これに対し、EUが最終調整を進めているAI規制法「AI Act」は、生成AIを含む広範なAIを対象に、利用者の権利を守ることを主眼に置いている。更に、AIモデルを教育するデータに関する規制もあり、著者者の権利を保護することを規定している。米国のガイドラインは国家安全保障の強化に重点を置いていることが特徴となる。

米国の法令整備

ガイドラインは、法的な拘束力はなく、合意した企業がこれに基づき、自主的に義務を履行する構造となる。合意した企業は7社で、Amazon、Anthropic、Google、Inflection、Meta、Microsoft、及び OpenAIがガイドラインに従って安全性を検証する。また、このガイドラインは、AI規制法が制定されるまでの規約で、暫定的な措置という位置づけとなる。現在、米国政府はAI規制法の準備を進めているが、このガイドラインがその構成のベースとなる。AI規制法の制定までには時間を要すが、ガイドラインからAI規制法の姿を読み取ることができる。

OpenAIは性能の壁に突き当たる、GPT-4の規模を拡大しても性能が伸びない、新たなアーキテクチャを開発中、GPT-4は小型モデルを組み合わせた複合型AIか

大規模言語モデル「GPT-4」は、サイズを拡大しても、それに応じて性能が伸びない、という問題に直面している。ニューラルネットワークのパラメータの数を増やしても、モデルの性能が向上しない、ということを意味する。OpenAIのCEOであるSam Altmanは、この問題を認め、「AIの規模拡大競争の時代は終わった」と述べている。この発言は、OpenAIは大規模言語モデルの新しいアーキテクチャの開発を進めている、ことを示唆している。

出典: Adobe Stock

大規模言語モデルの性能問題とは

これは「Diminishing Returns」と呼ばれ、言語モデルのサイズを大きくしても、その成果(リターン)が得られない事象で、性能が伸びない問題を指す。OpenAIは言語モデルとして「GPTシリーズ」を開発してきたが、GPT-3までは規模を拡大すると、それに伴って性能が向上した。特に、GPT-3では、人間レベルの言語機能を習得し、社会に衝撃を与えた。しかし、最新モデルGPT-4ではこのトレンドが崩れ、もうこれ以上ニューラルネットワークの規模を拡大できない地点に到達した。

言語モデルの限界

大規模言語モデルが限界点に到達したとは、今のプロセッサでは処理できない規模になったことを意味する。技術的な観点からは、GPT-4は「Transformers」というアーキテクチャで構成されたモデルで、規模を拡大するとは、パラメータの数を増やし、教育データの量を拡大することを意味する。GPT-4を教育するためには巨大なシステムが必要で、Altmanはモデルの開発で1億ドルを要したと述べている。更に、開発した巨大なモデルを実行するには、大量の計算機が必要になり、運用費用が巨額になる。つまり、巨大な言語モデルを開発し、それを運用するには、技術的にもビジネスの観点からも、現実的でないというポイントに到達した。

出典: Microsoft 

新たなアーキテクチャの研究

このため、Altmanは言語モデルの性能限界を突破するために、新たなアーキテクチャを探求する必要があると述べている。しかし、そのアプローチについては何も語っておらず、研究者の間でその手法に関する議論が白熱している。

研究者の推論を纏めると ##未確認情報##

ネットではGPT-4のアーキテクチャについて様々な議論が交わされている。OpenAIは、これらの推測に関し何もコメントしておらず、議論の過程の情報となる。これらの議論を纏めると、GPT-4は単体のモデルではなく、16の小型モジュールを組み合わせた、複合型の言語モデルとなる。アーキテクチャの観点からは、このモデルは「Mixture of Experts」と呼ばれ、16の専用モジュールから成り、プロンプトに対しモジュールの中の「エキスパート」が回答を生成するという構図となる。具体的には、GPT-4のシステム構成は:

  • モジュール構成:GPT-4は16のモジュールから構成される。モジュールのパラメータの数は1110億で、GPT-3程度の規模となる。GPT-4全体では、パラメータの数は1.8兆個となる。GPT-4はGPT-3を16ユニット結合したサイズとなる。
  • エキスパート機能:この構成は「Mixture of Experts (MoE)」と呼ばれ、各モジュールが分野のエキスパートとなる。問われたことに関し、最適のモジュールが解答を生成する。例えば、科学に関する質問には、それ専門のモジュールが稼働し解答を生成する。
  • 教育データ:GPT-4は13兆のトークン(Token、単語などの基本単位)で教育された。極めて大量のデータで教育された。教育データはテキストやプログラムのコードが使われ、また、ツイッターやRedditなどのソーシャルメディアのデータが使われた。更に、YouTubeのビデオと、書籍などの著作物が使われた。
  • インファレンス(実行):開発された巨大なモデルを如何に効率的に運用するかが課題となる。モデルを実行するプロセスは「Inference」と呼ばれ、Mixture of Experts構成を取ることで、運用コストを低減できる。プロンプトに対し、GPT-4全体を稼働させる必要はなく、専用のモジュールを2つ稼働させる。これにより、GPT-4を実行するコストはGPT-3の3倍と予測される。

Mixture of Expertsとは

Mixture of Expertsは早くから開発されている技法で、Googleはこのアーキテクチャに基づくモデル「GLaM」をリリースした。Googleは、このアーキテクチャを「Mixture-of-Experts with Expert Choice Routing」として発表している(下のグラフィックス)。これは、Transformersの「Feed Forward Neural Networks(FFN)」というネットワークを「Mixture-of-Experts」(FFN 1からFFN 4の四つのモジュール)で置き換えることにより、モデルの処理を効率化できるとしている。Googleはこのアーキテクチャに基づく言語モデル「Generalist Language Model (GLaM)」を開発し、言語モデルの規模を拡大できることを示した。具体的には、「GLaM」と「GPT-3」を比較すると、教育したモデルを実行するプロセス(Inference)で、計算量を大きく削減することができることを示した。

出典: Google

規模拡大からアイディアを競い合う時代に

大規模言語モデルは「Transformers」で構成されたニューラルネットワークで、その規模を拡大することで、性能が向上し、新たな機能を獲得してきた。しかし、このトレンドは限界地点に達し、これ以上規模を拡大しても大きな性能の伸びは期待できない。これからは、言語モデルのアーキテクチャを改良することで、スケーラビリティを探求することとなる。この分野では既に、GoogleやDeepMindが新技術を開発しており、OpenAIとの競合がより厳しくなる。

ChatGPTブームの終焉か、利用者数が減少に転じる、生成AIの開発競争が激化し他の言語モデルへ人気が移る

OpenAIが開発したChatGPTの人気が陰り始めた。AIブームを引き起こしたChatGPTであるが、その熱狂が冷め、利用者数が減少に転じた。人気が頭打ちになった理由について様々な解釈があるが、開発競争が激化し、高機能なモデルがリリースされ、ChatGPTの性能が相対的に後退したことが指摘される。生成AIの選択肢が広がり、消費者や企業は最適なモデルを選択できるようになった。

出典: Adobe Stock

利用者数の減少

ChatGPTは2022年11月末に公開され、一か月間で利用者数が1億人を突破し、最速の成長速度をマークした。しかし、その成長は鈍化し、2023年6月は前月と比べ利用者数が10%程度減少した。米国のウェブトラフィック調査会社などが報告している。ChatGPTは世界最多の利用者を保持しているが、その成長が止まったことで、生成AIの市場構成が大きく変わる。

ChatGPTとは

ChatGPTは新興企業OpenAIが開発した生成AIで、サイトにアクセスして無料で使うことができる。利用者が直接チャットボットに触れることができ、言語モデルの実力を実感し、AIに対する興味が沸騰した。高度なAIと会話するという新鮮なインターフェイスにより、米国内で急成長を遂げたが、今では、米国外の利用者数が圧倒的に多い。

企業はChatGPTの使用を制限

ChatGPTの利用者数が減少した理由として、生成AIが内包する危険性がある。企業はChatGPTが機密情報をリークすることを懸念し、社内での利用を制限している。AmazonはChatGPTを業務で使うことを禁止した。社員はChatGPTをプログラムのコーディングで使っているという実態が明らかになった。社員はChatGPTに開発中のプログラムを入力、AIがこれをデバッグし、ロジックを改良する(下の写真)。しかし、ChatGPTは入力されたコードを学習し、これを社外の利用者に出力する危険性がある。特に、コードが開発中の先進技術を含んでいれば、情報がリークした際の被害は甚大となる。

出典: OpenAI

著作権侵害で訴訟される

OpenAIはChatGPTが著作権を侵害しているとして、相次いで訴訟された。OpenAIがChatGPTのアルゴリズムを教育した際に、書籍など著作物が使われ、AIが出力する内容が著作物のサマリーを含むなどの問題が指摘されている。このため、ChatGPTが出力したコンテンツをビジネスで利用すると、著作権を侵害する危険性を含んでおり、企業はこれを懸念して生成AIをビジネスのプロセスに組み込むことを制限している。

米国は生成AIの規制に向かう

更に、米国政府はAI規制法を導入する方向に進み、生成AIが出力するデータの安全性が問われている。ChatGPTがヘイトスピーチや差別発言をしないよう、OpenAIはガードレールを導入し、有害なコンテンツをフィルタリングしている。このため、現在のChatGPTは優等生で、安全なコンテンツだけを生成する。ChatGPTは安全であるが、利用者の一部は物足りなさを感じている。自由な表現を求める利用者にとっては、ChatGPTは魅力を失った。

多彩な生成AIが生まれている

ChatGPTの利用者数は減少しているが、Microsoft BingやGoogle Bardの利用者数は上昇している。Microsoft Bingは検索エンジンにOpenAIの最新モデル「GPT-4」を実装し、かつ、最新のデータでアルゴリズムを教育している。ChatGPTは2021年9月までのデータで教育されており、最新の情報を回答することはできない。また、GoogleはChatGPTに対抗して「Bard」を投入し、利用者数を伸ばしている。Bardは最新の言語モデル「PaLM 2」をエンジンとし、ChatGPTの性能を凌駕するとアピールしている。

出典: Adobe Stock

生成AIの多様化

実際に、ChatGPTを使うと他のモデルと比べて性能や機能のギャップを実感する。Microsoft Bing(GPT-4)やGoogle Bardが進化し、相対的にChatGPTが後退した構図となる。また、スタートアップ企業からは、多彩なキャラクターを持つ生成AIが登場している。巨大テックの生成AIは倫理的な設計であるが、新興企業は消費者の嗜好に応え、ユニークなモデルを投入している。必ずしも安全なモデルとは言えないが、自由な発言を好む米国の消費者にアピールしている。生成AIの開発は多様化し、市場はChatGPT一強の時代から、郡雄割拠の状況を呈している。

Googleは生成AIでサイバー攻撃を防御、アルゴリズムが人間に代わりマルウェア検知しセキュリティを強化

サンフランシスコでセキュリティの国際会議「RSA Conference 2023」が開催された。今年の中心テーマは生成AIで、ChatGPTを悪用した犯罪とその防御方法が議論された。セキュリティ企業は生成AIを活用した次世代の防衛技術を公開した。Googleは世界最大規模の生成AIを開発しており、これをベースにしたセキュリティ技術を公開した。

出典: VentureClef

生成AIによる防衛技術

Googleは生成AIを使ったセキュリティ技術「Cloud Security AI Workbench」を公開し、RSA 2023で注目を集めた(上の写真)。AI WorkbenchはGoogleが開発した大規模言語モデル「Sec-PaLM」に構築されるセキュリティ技術で、高精度でマルウェアを検知する機能を持つ。Sec-PaLMとは、名前が示すように、世界最大規模の生成AI「PaLM」をベースとするシステムで、これをセキュリティに特化したモデルにアップグレードした。つまり、世界最大規模のセキュリティ向け生成AIとなる。

セキュリティ向け教育データ

AI Workbenchの教育では、セキュリティに関する大量のデータが使われ、モデルはマルウェアに関する高度なスキルを学習した(下のグラフィックス)。これは「セキュリティ・インテリジェンス」と呼ばれ、Googleが収集したデータの他に、パートナー企業であるMandiantが保有するデータが使われた。具体的には、システムの脆弱性、マルウェア、攻撃のシグナル、攻撃の特性やその挙動などに関するデータで教育され、アルゴリズムはサイバー攻撃に関する包括的なスキルを学習した。

出典: Google

AI Workbenchの機能

AI Workbenchは世界最大規模の生成AIをベースとするシステムで、セキュリティに関するプロセスを自動化する。AI Workbenchは、システムに対する攻撃を把握し、これに対する防衛機能を自律的に実行する。また、システム全体を検証し、セキュリティに関する問題点などを指摘する。AI Workbenchの主要機能は:

  • サイバー攻撃を把握:セキュリティに関する大量のデータ(セキュリティのログや通信トラフィックなど)を解析しサイバー攻撃の兆候を把握する
  • サイバー攻撃に対する防御:攻撃に対して自律的に防衛措置(IPアドレスの封鎖やファイルの検疫など)を実施し脅威を低減する
  • システムの脆弱性の検査:システム全体を検証してセキュリティ・ギャップなど脆弱性を把握し、セキュリティ強化に関する提言を行う

マルウェア検知のサービス

GoogleはAI Workbenchを統合したセキュリティサービス「VirusTotal Code Insight」(下の写真)を開発した。このサービスはコードをスキャンし、それがマルウェアであるかどうかを判定する。その際に、マルウェアである確度(下の写真上段、レベル8)と、マルウェアの特性や挙動を分かりやすい言葉で説明し(下段)、分かりやすいインターフェイスで迅速な対応が可能となる。VirusTotalはGoogleが買収した企業で、マルウェアに関する情報を集約したウェブサイトを運営している。

出典: VirusTotal

攻撃に関する情報検索

Google Cloudは大量のログデータから攻撃のシグナルを検知するセキュリティ機能「Chronicle Security Operations」を提供している。Chronicle Security OperationsはAI Workbenchを統合し、インテリジェントにサイバー攻撃を検知する技術を提供する。専門家に代わりAIが検索のためのクエリーを生成し、自律的に攻撃を検索し、その結果を分かりやすく表示する。これにより、セキュリティ専門家でなくても、マルウェアによる攻撃を検知できる。(下のスクリーンショットは「CONFIDENTIAL」というタイトルのドキュメントを外部に送信したイベントを検索した事例で、データリークを迅速に検知する)。

出典: Google

AI Workbenchの目的

企業は数多くのセキュリティツールを導入しているが、これらが生成するデータの数は膨大で、これを人間が解析するには限界があり、AI Workbenchがこれを自動化する。また、セキュリティツールを使うには高度な技術を要するが、AI Workbenchがインターフェイスとなり、セキュリティに関する情報を分かりやすく説明する。セキュリティ市場では高度な技術を持つエンジニアが不足しており、人間に代わりAI Workbenchがセキュリティ専門家として機能する。

生成AIで防衛機能を強化

GoogleはAI Workbenchをパートナー企業に提供し、セキュリティ製品に組み込まれて出荷される。その後、一般向けに提供され、企業はAI Workbenchを統合したセキュリティシステムを開発することができる。その際に、企業は所有するデータでアルゴリズムを再度教育し、ビジネスに最適なモデルを構築することができる。ChatGPTの利用が急拡大する中、生成AIでセキュリティ機能を強化する技法が示され、サイバー攻撃への防衛能力が高まると期待されている。

ChatGPTでセキュリティ市場が一変、生成AIがフィッシングメールやマルウェアを生成しサイバー犯罪が多発

サンフランシスコでセキュリティの国際会議「RSA Conference 2023」が開催された(下の写真)。今年の中心テーマは生成AIで、ChatGPTを悪用した犯罪とその防御方法が議論された。ChatGPTを使ってフィッシングメールやマルウェアを生成する技法が示された。ハッカーではなく素人でも簡単に使え、サイバー犯罪が分散し多発することが予想される。同時に、セキュリティ企業はAIを活用した防御技術の開発を進めている。

出典: VentureClef

セキュリティ市場

OpenAIが公開したChatGPTによりセキュリティ市場が一変した。サイバー攻撃では高度な技術が求められ、悪意あるハッカー(Black Hat Hacker)が、防御網をかいくぐり、システムに侵入し、攻撃を展開する。しかし、ChatGPTの登場で、チャットボットがフィッシングメールやマルウェアを作成し、サイバー攻撃への垣根が下がり、素人による攻撃が頻発すると懸念されている。また、国家組織がChatGPTを悪用し、高度なサイバー攻撃を展開する可能性があり、国家安全保障の観点からも警戒されている。

Recorded Future

企業はChatGPTなど生成AIを使った攻撃を防御する技術の開発を進めている。セキュリティ企業Recorded Futureはサイバー攻撃をAIで解析し、問題点を特定する技術の開発を進めている(下の写真)。攻撃に関するデータを収集し、これを機械学習や自然言語解析で処理し、サイバー攻撃を把握する。また、Recorded FutureはChatGPTを悪用したサイバー攻撃を重大な脅威と捉え、生成AIによるサイバー犯罪についての報告書を公開した。

出典: VentureClef

ChatGPTによるサイバー攻撃

報告書によると、ChatGPTは2022年11月に公開されたチャットボットで、ダークウェブではこれを悪用したサイバー攻撃が議論されている。また、ダークウェブには、ChatGPTで生成したマルウェアのプロトタイプが公開されている。ChatGPTを使うと簡単にサイバー攻撃を展開できるため、短期的には、個人によるサイバー攻撃が広がると懸念される。また、ChatGPTを使って国家によるサイバー戦争(Cyberwarfare)に発展する可能性も指摘される。

攻撃の種類

ChatGPTを使った攻撃では、生成したスクリプトによる攻撃(Script Kiddie)、活動家による攻撃(Hacktivist)、犯罪者による攻撃(Scammer)、スパムメールによる攻撃(Spammer)などが中心となる。ダークウェブにおいて、マルウェアのプロトタイプが公開され、攻撃手法について情報が交換されている。ChatGPTを悪用することで、マルウェアの作成、ソーシャルエンジニアリング、偽情報の拡散、フィッシング攻撃などを容易に展開できる。これらは高度な攻撃ではないが、多くの個人による分散型の攻撃となり、防衛技術を強化する必要がある。

ソーシャルエンジニアリング

ChatGPTは高品質な文章を生成する機能を持ち、ソーシャルエンジニアリング・ツールが大量生産される。特に、ChatGPTはフィッシングメールの制作で威力を発揮し、メール犯罪が多発する。下の写真は、会社のIT部門を装ったフィッシングメールの事例で、「セキュリティ強化のために添付ファイルをダウンロード」するよう社員に指示している。添付ファイルはマルウェアで、これをダウンロードすると、社内システムがウイルスに感染することになる。このメールを読むと、単語や文法の間違いはなく、構文もしっかりしており、説得力がある。今まではメールの文章の品質からフィッシングを検知できたが、もうこの手法は使えない。

出典: Recorded Future

マルウェアを生成

ChatGPTはプログラミングの機能があり、言葉の指示でプログラムをコーディングすることができる。プログラミングの知識がなくても、ChatGPTを使うと言葉でマルウェアを生成することができる。下の写真は暗号通貨のワレットの機能を奪うマルウェアで「Cryptocurrency Clipper」と呼ばれる。マルウェアは、クリップボードにワレットのアドレスが書き込まれるのを検知すると、クリップボードを書き換え制御を奪う。素人が簡単にプログラミングできることから、多種類のマルウェアが生成され、攻撃への防衛が一層困難になる。

出典: Recorded Future

高品質な偽情報

ChatGPTは偽情報を生成し国民の世論を扇動するためにも悪用される(下の写真)。「北朝鮮が大陸弾道弾を発射し日本の領海内に落下した」(上から二段目)などと、社会を混乱させる情報を生成する。また、ChatGPTはEコマースにおける製品評価で、偽コメントを生成し、消費者を誘導する。例えば、航空会社は利用者評価に関し、ChatGPTで好意的なコメントを生成し、それを掲載するなどの手法が報告されている。これらは新しい手法ではなが、ChatGPTを使うと、高品質な偽情報を大量に生成できる。

出典: Recorded Future

防衛力の強化が求められる

ChatGPTや生成AIによるサイバー攻撃の被害は報告されていないが、ダークウェブでは攻撃の準備が進み、マルウェアのプロトタイプが公開されている。実際の攻撃は秒読み段階にきている。また、高度な技術を要するランサムウェアについても、生成AIを悪用した開発が始まり、防衛技術の強化が求められる。更に、生成AIの多くはオープンソースとして公開されており、国家がこれを改ざんし、高度な攻撃を実行することが懸念され、重大な脅威に備え対策を強化する必要がある。