月別アーカイブ: 2025年8月

OpenAIとAnthropicはお互いのAIモデルのアラインメント評価試験を実施、米国政府と英国政府が監査機関となりAIモデルの安全試験を実施することを提言

OpenAIとAnthropicは今週、お互いのAIモデルのアラインメント評価試験を実施した。奇抜な試みで、OpenAIはAnthropicのAIモデルを独自の手法で評価し、アルゴリズムが内包するリスクを洗い出した。Anthropicも同様に、OpenAIのAIモデルの安全評価を実施し、両社はその結果を公開した。このトライアルは監査機関がAIモデルの安全性を評価するプロセスを示したもので、フロンティアモデルの安全評価のテンプレートとなる。OpenAIは米国政府と英国政府に対し、両政府が監査機関として次世代AIモデルを評価し、その結果を公開することを提言した。

出典: Generated with Google Gemini 2.5 Flash

アラインメント評価とは

AIモデルが設計仕様と異なる挙動を示すことは一般に「ミスアラインメント(Misalignment)」と呼ばれる。OpenAIとAnthropicは、お互いのAIモデルを評価し、ミスアラインメントが発生するイベントを評価し、その結果を一般に公開した。アラインメント評価技法は両社で異なり、それぞれが独自の手法でAIモデルが内包するリスク要因を解析した。

対象モデル

OpenAIはAnthropicのAIモデルを、AnthropicはOpenAIのモデルを評価した(下の写真、イメージ)。評価したそれぞれのモデルは次の通りで、フラッグシップモデルが対象となった:

  • OpenAIが評価したモデル:AnthropicのAIモデル(Claude Opus 4、Sonnet 4)
  • Anthropicが評価したモデル:OpenAIのAIモデル(GPT-4o、GPT-4.1、o3、o4-mini)
出典: Generated with Google Imagen 4

OpenAIの評価結果

OpenAIはAnthropicのAIモデルの基本機能を評価した。これは「システム・アラインメント(System Alignment)」とも呼ばれ、命令のプライオリティ、ジェイルブレイクへの耐性、ハルシネーションなどを評価する。命令のプライオリティとは「Instruction Hierarchy」と呼ばれ、AIモデルを制御する命令の優先順序を設定する仕組みで、サイバー攻撃を防ぐための手法として使われる。実際の試験では、システムプロンプトからパスワードを盗み出す攻撃を防御する能力が試験された。試験結果は、AnthropicのOpus 4とSonnet 4、及び、OpenAI o3は全ての攻撃を防御したことが示された(下のグラフ)。

出典: OpenAI

Anthropicの評価結果

一方、AnthropicはAIモデルのエージェント機能を検証した。これは「Agentic Misalignment」と呼ばれ、AIエージェントが設計仕様通り稼働しないリスク要因を評価した。具体的には、AIモデルが悪用されるリスク、AIモデルが人間を恐喝するリスク、AIモデルがガードレールを迂回するリスクなどが評価された。AIモデルが悪用されるリスクの評価では、テロリストがAIモデルを悪用して兵器(CNRN)を開発するなど危険な行為を防ぐ機能が評価された。その結果、OpenAI o3とAnthropic Claude Sonnet 4は悪用の95%のケースを防御することが示された(下のグラフ)。

出典: Anthropic

Anthropicによる総合評価

Anthropicの試験結果を統合するとAIモデルのアラインメントの特性が明らかになった(下の写真)。両社とも推論モデル(OpenAI o3/o4-mini、Anthropic Opus/Sonnet)はジェイルブレイクなどのサイバー攻撃を防御する能力が高いことが示された。一方、両社のモデルを比較すると、Anthropicはサイバー攻撃への耐性が高いが、プロンプトへの回答回避率が高いという弱点を示し、セーフティを重視した設計となっている。OpenAIはこれと対照的に、サイバー攻撃への耐性は比較的に低いが、プロンプトへの回答回避率は低く、実用的なデザインとなっている。

出典: Anthropic

アラインメント試験技術の標準化

OpenAIとAnthropicはそれぞれ独自の手法でアラインメント試験を実施し、その結果として二つのベンチマーク結果を公表した。評価手法が異なるため、二社の評価をそのまま比較することができず、どのモデルが安全であるかを把握するのが難しい。このため両社は、アラインメント試験の技法を標準化し、単一の基準でAIモデルを評価する仕組みを提唱した。これは「Evaluation Scaffolding」と呼ばれ、政府主導の下でこの研究開発を進める必要性を強調した。

政府が監査機関となる

更に、OpenAIは米国政府と英国政府が公式の監査機関となり、AIモデルのアラインメント試験を実施することを提唱した。具体的には、米国政府では「Center for AI Standards and Innovation (CAISI)」(下の写真、イメージ)が、また、英国政府では「AI Safety Institute Consortium (AISIC)」がこの役割を担うことを推奨した。両組織は政府配下でAIセーフティ技術を開発することをミッションとしており、AIモデルのアラインメント試験を実施するためのスキルや人材を有している。

出典: Generated with Google Imagen 4

政府と民間のコンソーシアム

米国政府は民間企業とAIセーフティに関するコンソーシアム「AI Safety Institute Consortium」を発足し、AIモデルの安全評価に関する技術開発を共同で推進している。また、トランプ政権では、CAISIのミッションを、サイバーセキュリティやバイオセキュリティなどを対象に、リスクを評価することと定めている。アラインメント試験においては、企業がAI製品を出荷する前に、CAISIで安全試験を実施するプロセスが検討されている。

緩やかな規制を提唱

トランプ政権ではAI規制を緩和しイノベーションを推進する政策を取っており、アラインメント試験については公式なルールは設定されていない。このため、OpenAIやAnthropicは、セーフティ試験に関する枠組みを提唱する。安全試験はCAISIなど政府機関が実施し、民間企業は試験に必要なパッケージ「Evaluable Release Pack」を提供するなどの案が示されている。高度なAIモデルの開発が進み、OpenAIやAnthropicは政府に対し、緩やかな規制を施行することを求めている。

トランプ大統領のAIアクションプランは安全対策が不十分!!AnthropicはAIモデル評価プロセスの規格化を提言、企業は試験手順と結果を公開しモデルの安全性を保障すべき

トランプ大統領は「AIアクションプラン(AI Action Plan)」を公表し政権のAI基本指針を明らかにした。これに対し、主要企業はAIアクションプランに対する評価を発表し、政権がAI開発を支援する政策を高く評価している。一方、AIアクションプランはフロンティアモデルの安全試験に関する条項は規定しておらず、高度なAIがもたらすリスクに関する懸念が広がっている。Anthropicは政府に対し最低限の安全検査が必要であるとの提言書を公開した。

出典: White House

AIアクションプランの評価

Anthropicはトランプ政権のAIアクションプランに関する評価コメント「Thoughts on America’s AI Action Plan」を公開した。AnthropicはAIアクションプランを好意的に受け止め、米国がAI開発で首位を保つために、AIインフラ建設プロセスの効率化、連邦政府のAIシステムの導入、セーフティ評価体制の設立を高く評価している。特に、AI開発のインフラ整備に関し、データセンタの建設や送電網の整備における認可の手順が簡素化されたことを称賛している。

トランプ政権への提言

一方で、Anthropicは政府に対しフロンティアモデルに関する「透明性基準(Transparency Standard)」の設立を求めている。主要AI開発企業はフロンティアモデルの安全試験を実施し、その成果を一般に公開することが重要だとのポジションを取る。フロンティアモデルは重大なリスクを内包しており、政府に対しモデル試験のプロセスとその結果を公開するための透明性基準の設立を要求した。

出典: Anthropic

透明性基準とは

AnthropicはAIアクションプランに先立ち、フロンティアモデルの情報を開示するフレームワーク「Transparency Framework」を公開した。このフレームワークはAIモデルの安全性を検査しその結果を公表するプロセスを定めたもので、製品の「安全証明書」として機能する。バイデン政権では政府がAI開発企業に安全試験を義務付けたが、トランプ政権ではこの規制を停止した。Anthropicは透明性フレームワークを政府の安全規定として制定するよう提唱した。

適用対象企業

フレームワークはフロンティアモデルを対象に、その安全性を検査しそれを公開する手順を定め。対象はフロンティアモデルで、開発や実行に要するコンピュータの規模で規定し、国家安全保障に大きなリスクをもたらすシステムが対象となる。具体的には、規制の対象は年間収入が1億ドルを超える大企業とする。スタートアップ企業などは対象とならず、継続して研究開発を進めることができる。

安全開発フレームワーク

対象企業は安全開発フレームワーク「Secure Development Framework」に従ってフロンティアモデルを開発する。安全開発フレームワークはモデルを検証して、リスクがあればそれを是正する手順を定める。リスクとはCBRN (Chemical, Biological, Radiological, and Nuclear)で、化学・生物・放射性物質・核兵器の開発をアシストする機能が対象となる。また、モデルが人間の監視を掻い潜り価値観に反する挙動などを含む。

出典: Anthropic

検査結果の公開

AI開発企業は安全開発フレームワークで検証した内容を企業のウェブサイトで公開する。これにより、アカデミアや政府機関や企業などがAIモデルの安全性とリスクを理解することができる。また、検査結果については企業が自社で監査する形式となる。第三者による監査ではなく、AI企業は公開された内容が正しいことを保証する。

システムカード

AI開発企業はAIモデルに関するシステムカード「System Card」を公開する。システムカードとは、AIの機能や安全性や制限事項などを記載した使用手引きで、製品の取扱説明書となる。システムカードには、AIモデルの検証手法と検証結果を記載する。また、検証により判明した課題と、それを是正するための手法を記載する。システムカードはAIモデルを出荷する前に公開する。

柔軟な公開基準

安全開発フレームワークは公開基準に従ってAIモデルの検証結果を公開するが、この公開基準は必要最小限の規定とする。AIモデルの技術開発の速度は急で、公開基準を厳密に定めても、安全審査に関するプロセスがすぐに陳腐化する。このため、検査基準や公開基準を柔軟に設定し、AIモデルの進化に応じ、業界の安全基準のコンセンサスを取り入れたフレームワークを設定する。

出典: Anthropic

提案書のビジョン

AnthropicはAIモデルに関する規制は必要であるが、過度な規制はAI開発の障害となるとのポジションを取る。また、規制の対象は巨大テックで、スタートアップ企業は規制されるべきでなく、自由な環境でイノベーションを探求できるエコシステムを構築する。Anthropicはこの安全開発フレームワークをトランプ政権のAI規制に付加することを提唱している。安全基準は確定版ではなく、将来、高機能モデルの登場に備え、アクションプランを改定することや、連邦議会による法令の制定を視野に入れている。

トランプ大統領のAIアクションプランで米国AI産業が激変!!OpenAIはGPT-5を連邦政府に無償で提供、モデルをオープンソースとして公開

ホワイトハウスは2025年7月、AI基本政策「AIアクションプラン(AI Action Plan)」を公表し、トランプ大統領は三つの大統領令に署名した。AIアクションプランと大統領令は三つの指針から構成され、AI開発の加速、インフラの整備、技術の標準化で、これを達成するためのアクション項目を規定する。OpenAIはAIアクションプランに沿って新たな事業戦略を相次いで発表した。GPT-5を連邦政府に無償で提供し、モデルをオープンソースとして公開した。米国AI企業はAIアクションプランに準拠するため事業戦略を大きく転換し、トランプ大統領の影響力の甚大さを映し出した。

出典: Generated with OpenAI GPT-5

AIアクションプランと大統領令

AIアクションプランはトランプ政権のAI基本政策を規定したもので、AI技術革新の加速、AI開発のためのインフラ整備、技術の標準化の三つの基軸からなる。トランプ大統領はAI基本政策に関する三つの大統領令に署名し、米国政府の新たなAI政策が起動した。AIアクションプランを制定した背景には中国との技術競争がある。トランプ政権はAI開発を1960年代の宇宙開発競争に例え、米国が勝利しなければならないとしている。

出典: Generated with OpenAI GPT-5 

連邦政府にAI導入を指示

トランプ政権はAIアクションプランで連邦政府に最新のAIモデルを導入することを求めた。AIによりワークフローを自動化し、内部プロセスを効率的に運用し、事務処理を軽減することを目的とする。これを受けて、General Services Administration (GSA)が連邦政府の窓口となり、このプログラムを実行する。GSAは連邦政府の独立機関で物品やサービスの調達など総務の業務を担う。

OpenAIの新戦略

トランプ政権のAIアクションプランに沿って、OpenAIは8月6日、AIモデルを連邦政府に無償で提供することを発表した。OpenAIはGSAと提携し「ChatGPT Enterprise」を来年一年間1ドルで提供する。ChatGPT Enterpriseは企業向けのライセンスで、チャットモードでAIモデルを使うサービスとなる。OpenAIは最新モデル「GPT-5」をリリースしており、連邦政府はこのモデルを無償で使うことができる。OpenAIとしては、フリーミアムのモデルで、無償でChatGPTを導入し、その後、有償モデルに切り替える狙いがある。

出典: Generated with OpenAI GPT-5

AIモデルの安全基準

AIアクションプランは連邦政府がAIモデルを導入する際に守るべき安全基準を規定している。AIモデルが安全基準に準拠していることを条件に導入を認める構造となる。具体的には、AIモデルは「Truth-Seeking(真実を探求)」し、「Ideological Neutrality(イデオロギーに中立)」であることが要件となる。前者は、モデルの出力が正確で事実に基づいており、意図的にミスリードしないことを規定する。後者は、モデルが政治的にまた文化的に特定の方向に偏らないことを求めている。リベラルにバイアスするAIは「Woke AI」と呼ばれ、安全基準は中立なポジションを取ることを求めている。

出典: Generated with OpenAI GPT-5

調達規定の制定

大統領令は連邦政府がAIモデルを購入する際の調達規定「Procurement Rule」を制定することを求めている。調達規定には上述の安全基準が含まれ、また、モデルのセーフティ規格などが設定される。大統領令は行政管理予算局(Office of Management and Budget 、OMB)に対し、具体的な調達規定を120日以内(2025年11月まで)に制定することを求めている。更に、国立標準技術研究所(National Institute of Standards and Technology 、NIST)に対して、モデルの安全性を評価する技法の開発を求めている。これは国家安全保障の観点から、CBRNE(下の写真)やサイバー攻撃に関する危険性評価技法の開発を求めている。

出典: Generated with OpenAI GPT-5 

OpenAIがテストケース

OpenAIがAIアクションプランに沿って連邦政府にAIモデルを提供する最初のケースとなり、業界から注目されている。OpenAIはOMBにより制定される調達規定に従って安全なモデルを納入することが求められる。具体的には、OpenAIは調達規定に従ってAIモデルを検証し、その結果をドキュメントにまとめて提出し、OMBによる評価を受けるプロセスとなる。

規制緩和と安全規格

トランプ政権はAIモデルの安全評価に関する規制を緩和したが、実際には独自のルールに従って安全性を確認する作業が求められる。OMBの調達規定がリリースされるまでは安全評価のプロセスは不明であるが、バイデン政権から制約が大きく緩和されるわけでは無い。AIモデルの出力精度が問われ、CBRNEやサイバー攻撃などモデルの安全性を検証する義務が課される。

オープンソース

AIアクションプランはAI開発企業にモデルをオープンソースとして公開することを求めている。スタートアップ企業やアカデミアはオープンソースを使うことで研究開発を加速する。また、オープンソースは米国の価値を内包するシステムで、これをグローバルに展開することで、”アメリカンAI”の普及を目指す。具体的には、ビジネスや基礎研究における国際標準規格をアメリカの技術で構築し、トランプ政権はグローバルな覇権を握ることを目論んでいる。

OpenAI gpt-oss

これに呼応してOpenAIは8月5日、オープンソースモデル「gpt-oss」を公開した。OpenAIはこれを「Open-Weight Reasoning Model (オープンウェイトの推論モデル)」と呼び、「gpt-oss-120b」と「gpt-oss-20b」の二つのモデルを投入した。オープンソースであるが性能は「o3」レベルで高機能なオープンソースとなる。OpenAIはビジネスモデルを大転換し、クローズドソースとオープンソースのハイブリッドな事業戦略を取る。

出典: OpenAI

トランプ政権のAI規制

OpenAIに続き、GoogleとAnthropicも行政管理予算局のベンダーリストに追加され、AIモデルを連邦政府に供給することが認められた。これら企業はAIモデルを倫理的に運用することを誓約し、また、連邦政府の安全基準に準拠することを確約した。OMBのルールブックが安全審査のガイドラインとなり、これに準拠することが求められる。OMBのルールブックは120日後にリリースされる予定で、これが米国の事実上の安全基準となり、トランプ政権下でAI規制の条件が確定する。

OpenAIは最新モデル「GPT-5」を投入、AGIではなくコスパを極めた先端モデル、コーディングとAIエージェントがキラーアプリ

OpenAI は8月7日、最新モデル「GPT-5」をリリースした。GPT-5は高度な機能を持つAGIではなく、コストパフォーマンスを重視する実用的なモデルとなった。GPT-5は言語モデルと推論モデルが統合され、統合インテリジェンス(Unified Intelligence)を構成する。GPT-5は推論機能が大きく進化し、コーディングとエージェント機能が突出したモデルとなる。コーディング機能は業界トップの性能を持ち、プロンプトだけでソフトウェアを開発でき、GPT-5がオンデマンドでアイディアを製品にする。

出典: OpenAI

GPT-5の概要

GPT-5はOpenAIのフラッグシップモデルで高度な機能を搭載し業界トップの性能を実現した。アーキテクチャの観点からはGPT-5は単一のシステム「Unified System」でプロンプトの内容に応じて最適なモジュールが選択され回答を生成する。具体的には、ChatGPTインターフェイス(ブラウザー)においては、ルーター(Router)が入力されたプロンプトを解析し、「GPT-5」か「GPT-5 Thinking」のモジュールを選択する。前者はチャットモデルで高速で回答を生成し、後者は推論モデルで思考を重ねて回答を生成する。

モデルの選択

実際に、GPT-5を使う際にマニュアルでモデルを選択するオプションが提供されている(下の写真)。ChatGPTの初期画面で「GPT-5」か「GPT-5 Thinking」を選択する。使ってみると、GPT-5はチャットモードで瞬時に回答を生成する。GPT-5 Thinkingは考察を重ね高品質な回答を生成する。GPT-5 Thinkingを標準的に使っているが、使用量に制限があり(200メッセージ/週、Plusユーザ)、上限に達するとGPT-5 Thinkingの小型モデル(Mini)にダウングレードされるので注意を要する。

出典: OpenAI

開発者向けの機能

OpenAIは開発者向けにAPIを公開しており、プログラムからAPI経由でGPT-5の機能を呼び出す。上述のChatGPTのインターフェイスとは異なり、開発者向けには四種類のモデルを提供している。推論モデルがベースで三つのサイズから成り(下の写真)インテリジェンスを提供する。APIはモデルの規模で区分され、標準モデル「gpt-5」から中型モデル「gpt-5-mini」から小型モデル「gpt-5-nano」となる。また、GPT-5チャットモードは「gpt-5-chat」として提供されている。プログラムからこれらのAPIにアクセスしGPT-5の機能を利用する。

出典: OpenAI

パフォーマンス

OpenAIはGPT-5の性能を公表し前世代モデル「GPT-4o」や「o3」から数学や科学やコーディングの性能が大きく向上したことをアピールした。一方、OpenAIはGPT-5と他社製品の比較については発表しておらず、業界での位置づけを掴むことができない。一方、AI解析企業が主要各社のベンチマーク結果を統合して公開している(下のグラフ)。これによるとGPT-5はxAI Grok 4を抜いてトップの成績となった。これに、Google Gemini 2.5 ProとAlibaba Qwen 3が追随する構図となる。

出典: Artificial Analysis

コスト

OpenAIはGPT-5の利用価格を低く設定し業界を驚かせた。GPT-5は業界でトップの性能を持つが、価格は極めて低く設定され(下の写真、API使用料金、100万トークン当たりの価格)、コストパフォーマンスを重視した製品となった。コーディング機能においてはAnthropic Claude 4.1が対抗機種となるが、GPT-5の価格はこのモデルの1/10に設定されている。

出典: OpenAI

コーディング

OpenAIは発表イベントにおいて、GPT-5は極めて高度なコーディング機能を持つことをデモで実演した。GPT-5にメールアプリを制作するよう指示すると、AIがプログラミングを実行し、メールアプリを開発した。プロンプトでメールアプリのワイヤーフレーム(下の写真)を入力し、「このデザインに従ってメールアプリを開発」と指示すると、GPT-5はコーディングを開始した。

出典: OpenAI

ソフトウェア・オンデマンド

ここでは、一番人気のAI開発環境「Cursor」が使われ、この背後でGPT-5がプログラミングを実行した。上述のプロンプトの指示に従って、メールアプリが生成された(下の写真)。GPT-5はシンプルなモデルだけでなく、フロントエンドとバックエンドにまたがる、複雑なプログラムを生成することができることが示された。GPT-5は言葉だけでアプリを生成することができ、Sam Altmanはこの手法を「Software on Demand(ソフトウェア・オンデマンド)」と命名した。

出典: OpenAI

エージェント

GPT-5はエージェント機能が拡張されベンチマークで高い性能を示した。エージェント機能においては、インストラクションに従う機能やツールを使う機能が格段に向上した。OpenAIはエージェントモデル「GPT Agent」をリリースし利用が広がっている。また、スタートアップ企業はGPT-5をエージェントのエンジンとして採用し高度なモデルを開発している。(下の写真、AIエージェントのトップ企業Manusの事例、背後でGPT-5が稼働している)

出典: Manus

進化を感じにくい製品

GPT-5はコーディングやエージェントの機能が格段に進化しこれらの製品のエンジンとして利用が急拡大している。また、GPT-5はバイオサイエンスやファイナンスにおけるバックボーンとなり新薬開発などで活躍が期待される。GPT-5はPhDクラスのインテリジェンスを持ち、研究者やエンジニアにとって同僚のような存在となる。しかし、一般消費者はコーディングやバイオサイエンスの研究とは縁遠く、GPT-5に大きなメリットを感じることができないことも事実である。GPT-5は産業向けAIシステムとしての色彩が濃厚になり、一般消費者から遠ざかりつつある。

OpenAIのAIエージェント「ChatGPT Agent」は一般社員レベルのスキルを持つ!!LAオリンピックの旅行計画を指示すると結果をスライドに纏めて報告

OpenAI は7月17日、高度なAIエージェント「ChatGPT Agent」をリリースした。AIエージェントはツールを使う機能と高度な推論機能を搭載し、人間に代わり複雑なタスクを実行する。会社においては、企業の財務分析を実行し、その結果をエクセルシートに纏めて報告する。実際に使ってみると、ChatGPT Agentは汎用性が高く使いやすいインターフェイスとなっている。LAオリンピックの旅行計画の立案を指示すると、ChatGPT Agentは関連情報を収集し、その結果をパワーポイントのスライドに纏めて報告した。今年はAIエージェントの技術が格段に進化し、ついに人間のレベルに到達した。

出典: Generated with OpenAI DALL·E

ChatGPT Agentの概要

市場で多くのAIエージェントが開発されているが、ChatGPT Agentは最も高機能なモデルとなる。複数の機能を統合した構成で、指示されたタスクを実行するために、ウェブサイトを閲覧する。高度な推論機能を持ち、収集したコンテンツを解析し、分析結果を報告する。企業の事務職のような存在で、エントリレベルの仕事を自律的に実行する。

システム構成

ChatGPT Agentは、言語機能「ChatGPT」と推論機能「Deep Search」とツールを使う機能「Operator」が融合したモデルとなる。推論機能「Deep Search」は人気の機能であるが、ウェブサービスにアクセスすることができず、活動範囲が限定されていた。これに、ツールを使う機能「Operator」を融合することで、汎用性の高いAIエージェントが生まれた。

ChatGPTを使ってみると

ChatGPT AgentはChatGPTにAIエージェント機能が付加された形で、初期画面で「Agent」のボタンをオンにして使う(下の写真、最下部)。タスクをプロンプトとして入力し、AIエージェントに仕事の内容を指示する。タスクが起動すると仮想マシンのモニターが表示され、AIエージェントの仕事のステップを見ることができる(下の写真、青枠の部分)。ここでは「LAオリンピックの旅行計画書の立案」を指示した事例で、AIエージェントがオリンピック公式サイトなどにアクセスし、その内容を読んでいることが分かる。

出典: VentureClef

報告書の作成

ChatGPT Agentは指示されたタスクを実行し、処理が完了するとスマホアプリにその旨を通知する。このケースでは完了までに1時間を要し、その結果をブラウザーに表示した。処理結果をパワーポイントに纏めて報告するよう指示したので、LAオリンピックの旅行計画をスライド形式で表示した(下の写真)。グラフィックスやグラフなどを含めビジュアルな報告書となった。

出典: VentureClef

報告書を読むと

ChatGPT AgentはLAオリンピック旅行計画書を8ページのスライドに纏めて報告した。プロンプトで「日本チームがメダルを獲得する試合を中心にプランを作成」と指示したので、野球やゴルフやスケートボードなどを中心に日程が組まれた。また、ホテルの推奨や移動手段に関するアドバイスを求めたので、AIエージェントは「LA市内では交通渋滞が予想され、レンタカーではなく公共交通機関を利用するよう」回答した。この報告書は旅行計画の枠組みとして使うことができ、これをベースに最終スケジュールを纏め、フライトやホテルやオリンピックのチケットを予約する手順となる。(下の写真、報告書の纏めのページ、試合や移動手段に関する推奨)

出典: VentureClef

企業における利用形態:データサイエンス

ChatGPT Agentは企業におけるデータ解析で高い能力を発揮する。ChatGPT Agentは企業の財務分析を実行し、その結果をエクセルシートに纏めて報告する。実際に、ChatGPT Agentにサンフランシスコ市の5年間の財務状況を分析するよう指示すると、AIエージェントは市が公開している様々なドキュメントを探し出し、これらの情報を解析する。実行過程はChatGPT Agentの仮想コンピュータの中で実行され、利用者はAIエージェントの作業進捗状況を把握できる。(下の写真、青色のボックス)

出典: OpenAI

解析結果をスプレッドシートに纏める

ChatGPT Agentは長時間、自律的に稼働し、利用者はタスクを指示した後は、パソコンから離れ別の仕事をすることができる。作業が完了すると、ChatGPT Agentはその旨をChatGPTアプリに表示する。上述のケースでは、ChatGPT Agentは解析したデータをスプレッドシートの形に纏めて報告する(下の写真)。利用者はこれをそのままダウンロードして利用することができる。

出典: OpenAI

企業における利用形態:オフィスの開設

ChatGPTは指示されたタスクを実行し、その結果をパワーポイントのスライドに纏めて報告する。このケースでは、シンガポールにオフィスを開設する際のプロセスを考察したもので、ChatGPT Agentは解析結果をプレゼン形式で提示する。ChatGPT Agentはシンガポールのオフィスの空き物件を検索し、最適なものを推奨する。また、シンガポール政府の助成制度や税制など事業に関連する要件を検討し、オフィス開設計画書をマルチメディアで提示する(下の写真)。

出典: OpenAI

制御の受け渡し

ChatGPT Agentはクリティカルな操作については、その制御を人間に返す設計となっている。例えば、サンフランシスコからニューヨークのフライトを検索し予約する際に(下の写真)、ChatGPT Agentは支払いのプロセスでは、処理を停止し人間の判断を仰ぐ。ここで、利用者は制御を受け取り、マニュアルでクレジットカードの決済処理を実行する。同様に、送金処理などではChatGPT Agentは処理を中断し、人間がトランザクションを実行する。

出典: OpenAI

リスクとセキュリティ

ChatGPT Agentは自律的に稼働するモデルで、それに伴いリスクの度合いが拡大する。特に、プロンプトインジェクション(Prompt Injection)という危険性が課題となる。プロンプトインジェクションとは、特殊な言葉の列でAIモデルを誤作動させる手口を指す。AIモデルをサイバー攻撃するために悪用されるが、AIエージェントでは特に問題となる。AIエージェントにおいては、参照するウェブサイトに悪意ある命令を埋め込み、ChatGPT Agentを誤作動させるリスクが発生する。ウェブサイトに「クレジットカード情報を入力」などとの命令を埋め込み、機密情報を盗用するなど、新たな手口が生まれている。

エンタープライズAIエージェント

OpenAIはChatGPT Agentの発表イベントをストリーミングで配信した(下の写真)。AIエージェントは多くの企業から提供されており、開発競争が白熱している。ChatGPT Agentはコーディングなど特定のタスクに特化した仕様ではなく、会社業務や日常生活において広範なタスクを実行する。一方、AIエージェントは黎明期の技術であり、企業が導入するには解決すべき課題は少なくない。今年後半は、エンタープライズ品質のAIエージェントの開発に向けて、各社が技術力を競うことになる。

出典: OpenAI