月別アーカイブ: 2024年8月

半導体カンファレンス「Hot Chips 2024」:OpenAIは生成AIの機能は伸び続けると主張、次世代大規模モデルを開発するためのGPUクラスタ技術を公開

今週、スタンフォード大学で半導体カンファレンス「Hot Chips 2024」が開催され、半導体設計に関する最新技術が開示された。このカンファレンスは高性能プロセッサを議論する場であるが、今年はAI専用プロセッサに関するテーマが中心となった。OpenAIは基調講演で、大規模言語モデルのスケーラビリティ(拡張性)に関する研究を示し、モデルの機能は伸び続けると推定。次世代モデルを開発するためには巨大な計算環境が必要で、そのコアシステムとなるGPUクラスタを解説した。

出典: Hot Chips

カンファレンスの概要

「Hot Chips」は半導体設計に関するカンファレンスで、業界の主要企業が参加し、高性能プロセッサ「High-Performance Processors」を中心に新技術が議論されてきた。今年はその流れが変わり、AI処理専用プロセッサ「AI Processors」を中心に最新技術が公開された。AI処理の中でも大規模言語モデルを中心に、タスクを高速で実行するための様々なアーキテクチャが示された。生成AIのコア技術であるトランスフォーマに特化した半導体回路設計などの研究が開示された。講演の模様はライブでストリーミングされた。

AIプロセッサの市場構造

大規模言語モデル向けのAIプロセッサはGPUが標準技術として使われ、Nvidiaの独走状態が続いている。これに対して、主要各社はASIC(application specific integrated circuit、特定用途向けIC)を基盤とするAIプロセッサを開発し、GPUの代替技術となることを目指している。Googleは「TPU」を、Amazonは「Trainium」と「Inferentia」を、Microsoftは「Maia」を開発し、大規模言語モデルのアクセラレータと位置付けている。スタートアップ企業は斬新なアーキテクチャでAIプロセッサを開発し、政府研究機関などで運用が始まった。

OpenAIの基調講演

基調講演でOpenAIは大規模言語モデルのスケーラビリティと大規模システム「GPUクラスタ」に関する最新技術を公開した。OpenAIはAIプロセッサを利用する観点から、次世代大規模モデルを効率的に開発するための基盤としてGPUクラスタに関する技法を開示した。AI開発ではNvidia GPUが使われるが、これを多数連結してクラスタを構成し、次世代モデルを開発・運用する技法を開示した。

Predictive Scaling:拡張性の予測

OpenAIはGPT-4など大規模モデルを開発しているが、言語モデルはこれからも機能や性能が伸び続けるとの研究成果を開示した。これは「Predictable Scaling」と呼ばれ、予測したペースで機能が拡張すると予測している。その根拠として「GPT-4」の開発事例を示し、モデルの規模を拡張すると(実行時間を長くすると)、機能が向上することを示した(下のグラフ)。小型モデル(灰色の円、実測値)を多数検証し、モデルの規模と機能をプロットすると、その延長線上にGPT-4(緑色の円、予想値)が位置し、機能はこの曲線に沿って拡大している事実を示した。

出典: OpenAI

AIモデルのスケーリング

GPT-4だけでなく、他社の大規模言語モデルを検証すると、このスケーラビリティは言語モデル全般に適用できる。主要モデルの規模(教育に要した計算量)とリリースされた時期をプロットすると、フロンティアモデルを教育するためのコンピュータ規模は毎年4-5倍となっている(下のグラフ)。市場ではフロンティアモデルの性能は限界に達するとの見解もあるが、OpenAIは大規模言語モデルはこれからもこのペースで機能が伸びると予測している。

出典: OpenAI

Mass Deployment:モデルを大規模に運用

OpenAIはこの仮定に基づき、フロンティアモデルの開発では計算環境の規模を継続的に拡大する必要があり、この需要に応えるためGPUクラスタを運用している。OpenAIはGPT-4など大規模モデルの開発ではGPUサーバを大規模に結合したGPUクラスタを利用している。実際には、GPT-5の開発ではMicrosoftのアリゾナ・データセンタの計算施設を使っており、GPUクラスタのサイズは巨大で、海洋生物に例えるとクジラの大きさになる(下の写真)。

出典: OpenAI

GPUクラスタを運用する技術

GPUクラスタは巨大なシステムで、運用では様々な障害が発生し、安定的に稼働させるには高度なスキルが求められる。GPUクラスタはマクロな観点から様々な弱点があり、システム全体の信頼性(RAS:Reliability, availability and serviceability)を高めるためのスキルが必要となる。GPUクラスタで障害が発生しやすいポイントは:

  • オプティカルネットワーク:GPUクラスタのモジュールは光ケーブルで結合されるが、このオプティカルネットワークの信頼性が低い
  • 高速メモリ:高速メモリ「High Bandwidth Memory (HBM)」の信頼性が低い。HBMとは3D構造のメモリ(DRAM)で、GPUプロセッサと高速でデータ転送を行う。
  • データに内在するエラー:「Silent Data Corruptions(SDC)」という問題。SDCとはデータに内在するエラーであるが、これが検知されないままでモデルの教育が進み、完成したモデルが誤作動するという問題。データに内在する問題は出現しないケースが多く、問題の切り分けが難しく、開発者を悩ませる。

GPUクラスタの障害からの復旧

GPUクラスタでこのような問題が発生するが、システムを障害から復旧させるためのテクニックが必要となる。言語モデル開発への影響範囲を最小限に抑えることが必須要件で、そのためには復旧のシークエンスが重要となる:

  1. ソフトウェア:ソフトウェアで例外処理が発生したケースはソフトウェアを再起動する
  2. プロセス:上記の処理で問題が解決しない場合は、プロセス全体を再起動する
  3. GPU:ハードウェアレベルの障害ではGPUプロセッサを再起動する
  4. ノード:GPUクラスタを構成するノードを再起動する
  5. ハードウェア交換:GPUプロセッサなどハードウェアを交換する。影響範囲は多岐にわたりこれは最後の手段。

電力供給管理の技法

GPT-5など大規模モデルの教育では、GPUクラスタは大量の電力を消費し、これを効率的に制御する必要がある。データセンタへの電力供給量は限られており、これを各プロセスで効率的に使用する。大規模モデルの教育では、GPUクラスタの各モジュールを同期して稼働させるため、電力消費量が急上昇したり急降下することになる。このため、電力消費量を遠隔で監視する仕組み「Power Telemetry」などが必要になる。これに応じて、データセンタ内の電力配分を動的に変更する技術「Dynamic Power Sloshing」が必要となる。

生成AIモデルの成長は続く

市場では、トランスフォーマの規模を拡張しても、モデルの機能や性能がこれに応じて伸びなくなる、との見解が広がっている。生成AIの成長のスピードが鈍化し、モデルは限界に達するという解釈である。これに対しOpenAIは、太陽光パネルの事例をあげ、モデルの機能や性能は恒常的に拡大するとの予測を示した。太陽光パネルの生産量は、その成長率がフラットになると予測され続けてきたが、実際には成長のスピードは加速している(下のグラフ、カラーのグラフ;予測値、黒色のグラフ;実際のトレンド)。フロンティアモデルも市場の予測に反し、成長を維持するとの予測を示した。

出典: OpenAI

次世代モデル向け計算環境

生成AIはモデルの規模が恒常的に拡大し、次世代モデルの開発では巨大な計算インフラが必要になる。また、開発した巨大モデルを稼働させるプロセス(インファレンス)においても、大規模な計算施設が必要になる。このため、プロセッサの性能を向上させるだけでなく、システム全体で障害発生率を低下させ、稼働率を向上させる技法が極めて重要となる。OpenAIは巨大モデルを開発した経験から、システム運用にかかる問題点とその改良技術を示した。

OpenAIはGPT-4oの安全試験結果を公表、人間を説得するリスクが高いが許容範囲であると判定、大統領選挙を控えフェイクボイス対策を重点的に進める

OpenAIは8月8日、マルチモダル生成AI「GPT-4o」の安全試験結果を公表した。それによると、GPT-4oは人間を説得するリスクが高いが、許容範囲内であり、安全に運用できるとの判定を下した。この安全試験は「Red Teaming」という手法で実施され、モデルが内包する重大なリスクを検証した。大統領選挙を目前に控え、GPT-4oのボイス生成機能が重点的に検証され、モデルをリリースすることに問題はないと結論付けた。バイデン政権はフロンティアモデルを出荷する前に安全試験を義務付けているが、これが実証試験となり、検証フレームワークの具体的なプロセスが明らかになった。

出典: OpenAI

GPT-4oのシステムカード

OpenAIは会話機能を持つGPT-4oの安全試験を実施し、その結果を報告書「システムカード(System Card)」として公開した。安全試験はOpenAIが定めるプロトコール「Preparedness Framework」に沿って実施され、下記の項目を評価し、その結果を一般に公表した(下の写真)。検証項目とリスクの度合いは次の通り:

  • サイバーセキュリティ:サイバー攻撃へ耐性リスク  【低い(Low)】
  • バイオサイエンス:生物兵器を開発するリスク  【低い(Low)】
  • 説得力:人間を説得するリスク  【中程度(Medium)】
  • 自律性:モデルが人間の制御を掻い潜るリスク  【低い(Low)】
出典: OpenAI

リスクの評価

評価結果は四段階に区分され(下の写真)、それに応じた運用と開発が実施される。

  • Low:リスクは低い、運用可能
  • Medium:リスクは中程度、運用可能
  • High:リスクは高い、運用不可であるが開発を継続できる
  • Critical:リスクは極めて高い、運用も開発も停止

GPT-4oの安全試験では、評価結果は「Low」と「Medium」で、製品を運用することができると判定した。

出典: OpenAI

安全試験のプロトコール

OpenAIは「Red Training」と呼ばれる手法が使われ、専門家がハッカーとなり、GPT-4oを攻撃してその脆弱性を把握した。これらの攻撃者は「Red Teamers」と呼ばれ、100人を超える専門家で構成された。専門家は第三者組織からの人材で、45の言語と29の国をカバーする。これらRed Teamersが、GPT-4oの異なる開発段階のソフトウェア(「チェックポイント」と呼ばれる)を試験し、そのリスクを洗い出す。更に、判明されたリスクに応じてGPT-4oはファインチューニングを実施し危険性を低減する。更に、Red Teamersは最終モデルを攻撃し、出荷前の製品の安全性を確認する。

安全試験のフェイズ

具体的には、安全試験は四つのステップで構成され、GPT-4oの開発段階に沿って、その危険性を導き出す。最終段階では、iOSアプリを使い、利用者と同じ環境でリスクを洗い出す。試験ではオーディオとテキストを入力とし、GPT-4oが出力するオーディオとテキストが検証された。それぞれのステップは:

  • Phase 1:初期モデルの試験
  • Phase 2:初期モデルに安全対策を施したモデルの試験
  • Phase 3:安全対策を施した複数モデルを試験しベストのモデルを選択
  • Phase 4:iOSアプリを使い利用者と同じ環境で試験、最終モデルを特定

ボイス生成機能を重点的に検証

GPT-4oの試験ではオーディオに関連するリスクをが重点的に試験された(下の写真)。GPT-4oは多彩な表現でリアルタイムに会話する機能を持つが、この機能はリスクが大きくまだリリースされていない。モデルの公開に先立ち、OpenAIはRed Teamingの方式で会話機能が内包するリスクを特定し、その安全対策を実施した。具体的には、GPT-4oはシステムが提供するボイスだけを許容し、著名人の音声などフェイクボイスの生成を抑止する。

出典: OpenAI

フェイクボイスの生成

GPT-4oはマルチモダルの生成AIで、入力されたオーディオとテキストの指示に従って、人間の声を生成することができる。これは「Synthetic Voice」と呼ばれ、モデルが人間が喋る音声をハイパーリアルに生成する。しかし、この技法が悪用されると、GPT-4oが著名人のフェイクボイスを生成し、これが拡散すると社会に重大な危険性をもたらす。GPT-4oは高度なマルチモダル機能を持ち、様々なサウンドを創り出すが、この一つが人間のボイスとなる。実際に、Red Teamingでこの危険性が確認され、OpenAIはGPT-4oが生成するボイスの種類を制限し、更に、生成されたボイスをフィルタリングする機能導入し、フェイクボイスの生成を抑止している。

大統領選挙を目前に控え

大統領選挙を目前に控え、OpenAIはGPT-4oの機能の中でフェイクボイスを生成する機能を重点的に検証した。実際に、他社のモデル「ElevenLabs」が悪用され、バイデン大統領のフェイクボイスが生成され、有権者に虚偽の情報が配信された。OpenAIはこれらを教訓にオーディオ技術を中心に安全対策を実施している。

出典: Adobe Stock

出荷前の安全試験

バイデン政権の大統領令は開発企業に対し、フロンティアモデルを出荷する前に安全試験を実施することを求めている。GPT-5からこの規制が適用され、GPT-4oはこの対象外であるが、OpenAIはこの安全試験を事前に実施し、本番前のトライアルとなった。安全試験の結果、GPT-4oのリスクの度合いは「Medium」以下であり、安全に利用できると判定した。今年後半には各社からフロンティアモデルがリリースされると噂されており、大統領令の規定に従い安全試験が実施されることになる。

xAIの最新モデル「Grok-2」はディープフェイクを生成、Xは偽情報拡散のSNSとなる、Muskは”言論の自由”を標榜するが政府は安全対策を求める

Elon Muskが創業したAI企業xAIは、今週、生成AIモデルの最新版「Grok-2」をリリースした。Grok-2はOpenAI GPT-4oに匹敵する性能を示し、AIの先頭集団に加わった。しかし、Grok-2はイメージ生成機能で著名人のディープフェイクを生成することを許容しており、偽情報が数多くXに掲載され(下の写真)、アメリカ社会が混乱している。Muskは言論の自由を守るAIを開発するという構想の元、Grok-2のガードレールを低くしている。一方、政府は大統領選挙を目前に控え、Xに偽情報の拡散を抑止するよう求めている。

出典: @PopkenHerman

Grok-2をリリース

xAIはElon Muskにより設立されたAI開発企業で、「宇宙の自然法則を理解」することをミッションとし、自然科学の発展に寄与するためにAIを開発している。xAIは8月13日、生成AIの最新モデル「Grok-2」と、その小型モデル「Grok-2 mini」をリリースした。Grok-2は性能が大きく向上し、言語機能でGPT-4oに匹敵する。Grok-2とGrok-2 miniはXのプラットフォームで公開され(下の写真)、有償のサブスクライバーがこれを使うことができる。

出典: xAI

危険なイメージを生成

Grok-2は入力されたテキストに従ってイメージを生成する機能を備えている。Grok-2のガードレールは低く設定されており、プロンプトに対する制約は緩く、非倫理的なイメージを生成する。特に、著名人やアニメキャラクターをベースとするディープフェイクを生成し、これらがそのままXのプラットフォームで拡散される。アメリカは大統領選挙の直前で、トランプ前大統領、ハリス副大統領、バイデン大統領など、政治にかかわる偽イメージが数多く生成され、これらがXに掲載されている(下の写真)。

出典: @Omiron33

映画のキャラクターや商標

Grok-2は映画のキャラクターや商標などをテーマとするイメージを描き出す。特に、子供に人気のあるキャラクターがタバコを吸い、ビールを飲むなど、社会通念に反するイメージを生成する。ウォルトディズニーのアニメーション映画「アナと雪の女王(Frozen)」の主人公が、コカインを吸入するシーンなどショッキングなイメージが目立つ(下の写真)。Grok-2は著作権物を教育データとして使っていろことが自明で、倫理問題の他に著作権侵害の問題も発生する。

出典: @BrianHartPR

イメージ生成技術

xAIはイメージ生成技術は、Black Forest Labsというスタートアップ企業が開発した「FLUX.1」というモデルを利用していることを明らかにした。Black Forestはドイツに拠点を置く企業で、テキストをイメージに変換するモデルを開発している。FLUX.1が生成するイメージは高品質で印象的な画像を描き出すことに特徴がある(下の写真)。Black Forestはイメージ生成技術に拡散モデル「Diffusion Model」を使っているが、そのコアの部分にトランスフォーマ「Diffusion Transformer」を導入し、スケーラビリティが高く、高解像度のイメージを生成する。

出典: Black Forest Labs

Elon Muskの構想

主要生成AIは著名人や映画のキャラクターを描き出すことを抑制しているが、Grok-2にはこの制約はなく、自由にイメージを描くことができる。Muskは「言論の自由」を理念とするAIを開発することをビジョンに掲げ、自由に稼働できるAIモデルを開発している。同時に、MuskはGoogleなど主要企業のAIはリベラルに偏った「Woke AI」であると批判している。Googleの最新モデル「Gemini」は、”偽のイメージ”を生成し危険であると批判する。実際に、Geminiは過度に平等を重視し、史実とは異なり、黒人や女性の大司教を描き出し(下の写真)、社会問題を引き起こした。このためGeminiは人物を生成する機能を停止しており、著名人だけでなく全ての人を描くことができない。

出典: @IMAO

Xは偽情報を拡散するプラットフォーム

Google Geminiは過度に差別解消を追求し、xAI Grok-2は言論の自由を極端な形で探求する。アメリカ市場でAIモデルの倫理観がベンチマークされており、各社は試行錯誤を重ね、あるべき姿を目指している。MuskはGrok-2を「Anti-Woke Chatbot(リベラルではないチャットボット)」と位置付け、モデルが生成したイメージをXに掲載することを許容し、Xが偽情報拡散のプラットフォームとなっている。米国州政府や欧州連合はMuskに偽情報を拡散することを抑止するよう求めているが、大きな進展は無い。(下の写真、ハリス副大統領の偽イメージ)

出典:@MMeeks986104

EUのAI規制法「AI Act」が発効、OpenAIなど生成AI開発企業は法令準拠の準備を加速、米国企業へのインパクトが甚大、生成AIを組み込んだシステムを開発する企業も対象となり注意を要す

EUのAI規制法「AI Act」が8月1日に発効した。AI Actは最終段階で生成AIに関する規定を追加し、OpenAIなど米国企業は法令に準拠する準備作業を加速している。AI Actは生成AIを利用する下流企業についても規定しており、生成AIを統合したAIシステムも規制の対象となる。EUに拠点を置く企業だけでなく、EU域内にAIシステムを展開する企業も規定の対象となる。日本企業が生成AIを統合したAIシステムをEU内で展開する場合も、AI Actの規定に準拠することが求められる。

出典: European Union

AI Actの概要

AI Actは欧州連合(European Union、EU)が制定した法令で、欧州でAIを安全に開発・運用・利用するためのフレームワークとなる。2020年から審議が始まり、5年の歳月を経て、今年5月に法令が成立し、先週8月1日に発効した。EU域内にAIシステムを供給する企業はこの法令の対象となる。

AIのリスクと規定

AI ActはEU内でAIを安全に開発・運用・利用するためのフレームワークで、AIシステム「AI Systems」のリスクの程度に応じた管理を定義している。これは、「Risk-based Approach」と呼ばれ、AIシステムの危険度を四段階に分けし、それぞれの規定が定められている。また、最終段階で生成AIが追加され、汎用AIとして定義された(下の写真)。それぞれの項目は:

  • 危険なAI (Unacceptable Risk AI):使用禁止、顔認証技術による住民監視など
  • ハイリスクAI(High-risk AI):規定された対策を適用し使用、人事採用での判定や社員のモニターなど
  • ローリスクAI(Limited Risk AI):表示義務を条件に使用可、チャットボットなど
  • ミニマムリスクAI (Minimal Risk AI):無条件で利用可、スパムフィルターなど
  • 生成AI(General-Purpose AI):モデル情報開示など特別な規定、生成AIを組み込んだAIシステムは上記の条件が適用される
出典: European Union 

これらの規定に違反するとAIシステムのリスクレベルに応じて制裁金が課され、危険なAIのケースでは、3500万ユーロか売上高の7%となる。AI Actの特徴はAIの危険度を定義し、それに応じた運用条件を定めたことにある。

生成AIに関する規定

生成AIは「General-Purpose AI (GPAI)、汎用AI」と呼ばれ、安全に運用するための規定が制定された。生成AIは幅広いタスクに適用されるため「汎用AI」として定義され、その開発や運用においてモデルの情報を開示することが義務付けられた。具体的には:

  • AIモデルに関する技術ドキュメントを生成しAIオフィスに提出
  • 生成AIでAIシステムを開発する企業向けに技術資料を提供
  • EUの著作権に準拠するための指針を作成
  • 生成AIを教育する際に使用したコンテンツのサマリーを提供

大規模な生成AIに関する規定

AI Actは大規模な生成AIに関して追加の規制条項を設けている。生成AIの機能を教育で使われたコンピュータの規模で定義しており、10^25(10の25乗) FLOPsの性能を超える計算機で開発されたモデルはこの規定に従うことが求められる。具体的には、Open AIのGPT-4oやGoogleのGeminiがこれに該当し、開発企業は下記の規定に準拠した対応が求められる:

  • システムに内在するリスクを特定するための検査を実施、また、継続的にリスクを評価し危険性を低減
  • 大規模な生成AIに該当する場合はEU Commissionに通知
  • 重大なインシデントをモニターしそれを報告
  • モデルのサイバーセキュリティ機能を強化、また、物理的なインフラの強化

生成AIが準拠すべき条件については「Codes of Practice」に記載されている(下の写真)。一方、この規定についてはまだ検討が続いており、一般からのコメントを参考に、2025年5月に最終決定される。

出典: European Union

今後のタイムライン

AI ActはAIシステムのリスクの度合いに応じて規定が発効する時期を設定している。危険度が高いAIシステムから規定が発効するアプローチとなる。また、生成AIについては、一年後の2025年8月から適用が開始される。AI Actが発効するタイムラインは:

2024年8月:AI Actが発効

2025年2月:危険なAI (Unacceptable Risk AI)の使用禁止

2025年5月:Codes of Practice(生成AIに関する運用規定)決定

2025年8月:生成AI(General-Purpose AI)に関する条項が発効

2026年8月:ハイリスクAI(High-risk AI)に関する規制が発効

上述の通り、生成AIに関する規定は「Codes of Practice」で定められるが、まだ検討が続いており、2025年5月に最終決定される。

AI Actの対象となる企業

AI Actは生成AIを開発している企業だけでなく、それを組み込んで「AIシステム」を構築している企業も対象になるので注意を要す。国籍に関してはEU企業だけでなく、域外の企業であってもEUにAIシステムを納入している企業は規制の対象となる。具体的には、生成AIを開発しているOpenAIだけでなく、GPT-4を組み込んだAIシステムを開発している企業も対象となる。AI Actはこれらの企業を「AIプロバイダー」と「AIディプロイヤー」と定義している:

  • AIプロバイダー(AI Provider):AIシステムや生成AIを開発している企業、OpenAIやGoogleなど
  • AIディプロイヤー(AI Deployer):AIシステムや生成AIを組み込んだシステムを開発している企業、AI開発企業やインテグレータなど
出典: European Union

AI企業は、EUが公開しているツール「EU AI Act Compliance Checker」(上の写真)を使い、自社がどのカテゴリーに区分されるのかを把握し、それに応じた対応を取ることを推奨している。

AI開発企業やインテグレータ

AI ActはOpenAIのように生成AIモデルを提供する企業(AI Provider)だけでなく、生成AIを使ってAIシステムを開発している企業(AI Deployer)も対象としているので注意を要す。後者は、生成AIを自社ブランドで販売しているケースや、生成AIを改造して販売しているケースなどで、AI Actが定める規定に準拠することになる。

米国企業へのインパクト

バイデン政権は生成AIを安全に展開するため、法令ではなく大統領令で企業に自主規制を求めている。対象となる生成AIは10^26 FLOPsの性能を超える計算機で開発されたモデルで、現行製品はこの規制から外れ、次世代モデル(OpenAI GPT-5など)から規定が適用される。AI Actは現行の生成AIモデルが対象となり、法令適用の範囲が広い。生成AI開発企業の殆どが米国企業で、法令のインパクトは欧州より米国のほうが大きい。

出典: Adobe Stock (Generated with AI)

日本企業へのインパクト

日本企業がOpenAIのGPT-4やGoogleのGeminiを組み込んだAIシステムを構築し、それをEU内の顧客に納入しているケースでは、AI Actの規制が適用されるので注意を要す。企業は、AIシステムの特性を評価し、これがどのレベルのリスクになるのかを査定し、それに基づいた対応が求められる。生成AIに関する規約が発効するのは1年後で、準備期間が限られており、迅速な対応が必要になる。

バイデン政権AI大統領令の進捗状況:AppleはAIの安全性を自主規制することを確約、米国商務省は生成AIを安全に運用するためのガイドラインを公開、ハリス政権が誕生する機運が高まり大統領令は継続される方向へ

バイデン大統領は昨年10月、AIの安全性に関する大統領令に署名し、米国企業に責任あるAI開発を求めた。15社がこの規約に準拠することを確約しているが、新たにAppleが加わり、米国の主要企業は責任あるAI開発で足並みがそろった。今週、ホワイトハウスは大統領令で規定されたアクション項目の進展状況を公開し、予定通り目標が達成されていることをアピールした。大統領令は法令ではなく、政権が変わるとその機能が停止される可能性があり、米国のAI政策は先が見通せない状況が続いていた。しかし、カマラ・ハリス大統領候補の人気が急上昇し、ハリス政権が誕生する可能性が濃厚となり、大統領令は継続して運用される公算が高まった。

出典: White House

AIに関する大統領令とは

バイデン大統領は2023年10月、責任あるAI開発と技術革新を推進するため、大統領令「President’s Executive Order on Safe, Secure, and Trustworthy Artificial Intelligence (14110)」に署名した(下の写真)。大統領令は国家安全保障と国民の権利を守る観点から、AIが危害を及ぼさないようセーフガードを設け、また、生物兵器の開発やサイバー攻撃を防ぐための機構を導入することを規定している。

AI開発企業の同意

AI開発企業には、大規模モデル(Foundation Models)の安全試験を実施し、その結果を報告することを求めている。これは開発企業の自主的なコミットメント「Volunteer Commitment」に基づくもので、法令ではなく自主規制を尊重するポジションを取る。自主規制にはGoogleやOpenAIなど主要企業が参加しているが、ここにAppleが加わり、米国の主要企業が大統領令に従って安全なモデルを開発する。大統領令の制作ではハリス副大統領(右側の人物)が重要な役割を担い、米国政府の”AI司令官”と呼ばれている。

出典: Associated Press

大統領令の実施状況

大統領令は連邦省庁に対してAIの導入や運用に関して広範なアクションを定めており、ホワイトハウスはこの達成状況を公開した。大統領令にはAIの運用に関し、実施項目(Action)と責任組織(Agency)と完了日(Required Timeline)が定められており、各省庁はこのアクションプランに沿って、規定された項目を期日までに完了すべく作業を進めてきた。ホワイトハウスは、270日以内に完了する項目について、全て予定通り達成できたと発表した。(下のテーブル、一部、シェイドの部分が今回達成したアクション項目)

出典: White House

アメリカ商務省の役割

責任あるAI開発ではアメリカ商務省(U.S. Department of Commerce、下の写真)がハブ機関となり、フレームワークやガイドラインを制定している。実際には、商務省配下のアメリカ国立標準技術研究所(National Institute of Standards and Technology、NIST)が実働部門として重要な役割を担っている。更に、NIST配下に新設されたAI安全推進室「U.S. AI Safety Institute」が大規模モデル(Foundation Models)を安全に運用するための指令室となる。AI開発企業はAI安全推進室と密接に連携し、次世代モデルの安全試験を実行する。実際に、AI安全推進室はOpenAIと共同で、次世代モデル(GPT-5)に関する安全試験のプロセスを進めている。

出典: Google

AI安全推進室:モデルが悪用される危険性を防ぐ指針

AI安全推進室はNISTの配下の組織で、大統領令の発効に伴って設立され、科学技術を基盤とするAIの安全性(AI Safety)を推進することをミッションとする。AI安全推進室は大規模モデルが悪用されることを防ぐためのガイドラインを公開した(下の写真)。大規模モデルは社会に役立つ高度な機能を持つが、同時に、これが悪用されると社会に重大な危険性をもたらす。ガイドラインは、大規模モデルが悪用されることを防ぐための手順を提案している。危険性は二種類に分類され:

  • 現行のリスク:危険情報、ヘイトスピーチ、同意を得ないヌードイメージの生成など
  • 将来のリスク:大規模モデルによる生物兵器の開発やサイバー攻撃など

について規定している。ガイドラインは発生が予想されるリスクを説明し、これら抑止するための手順を示している。このドキュメントはドラフトとして公開され、パブリックコメントを反映し、ガイドライン最終版を開発する。

出典: U.S. AI Safety Institute

NIST:責任ある生成AIを開発するためのフレームワーク

NISTは生成AIのリスクを管理すためのフレームワーク「The AI RMF Generative AI Profile」を公開した。このドキュメントは開発企業が生成AIを安全に開発運用するためのフレームワークで、AIのリスクを特定し、その対応策をライフサイクルにわたって提唱している。開発企業はこのフレームワークに従って、モデルを設計、開発、運用、監査することで、生成AIのリスクを低減する。このフレームワークは生成AIを包括的にカバーしており、12のリスクを特定し、それに対する200のアクションを示している。フレームワークはこれらのリスクを特定する手法や、リスクに対処するための手法を規定している。(下の写真、リスクを査定する手法とリスクを軽減するためのアクションを示している。デジタル・コンテンツに関しては、出典や改造をトレースするための手法を導入することを推奨。)

出典: NIST

トランプ政権かハリス政権か

大統領令は責任あるAI開発と運用を求めており、アクション項目は多岐にわたる。米国の主要開発企業はこの規定に沿って、安全なAIを開発することをコミットしている。また、連邦政府は社会のモデルケースとして、AIを安全に導入し運用するためのベストプラクティスを実行している。トランプ政権が誕生すると、この大統領令が停止され、これらの規定が効力を失うと危惧されてきた。しかし、ハリス政権が誕生する機運が急速に高まり、大統領令が継続される公算が高まった。まだ、大統領選挙の結果を予想することは難しく、シリコンバレーはトランプ政権とハリス政権の二つのケースに対処できるよう準備を進めている。