月別アーカイブ: 2023年10月

バイデン大統領はAI規制の方向に政策を大転換、企業はAIの安全試験と情報開示が義務付けられた、大規模モデルの危険性を管理しつつ技術革新を促進

バイデン大統領は、10月30日、アメリカが責任あるAI開発と技術革新を推進するため、政策を大きく転換した大統領令を発行した。大統領は記者会見で、AIが悪用されないため、セーフガードを設け、生物兵器の開発やサイバー攻撃を防ぐことに重点を置いていると、大統領令の趣旨を説明した(下の写真)。AI開発企業には、大規模モデルの安全性に関する試験を実施し、その結果を報告することを求めた。アメリカ政府はAI規制に消極的であったが、大統領令で政策を一転し、AIの危険性を制御しつつイノベーションを推進する方針を打ち出した。

出典: White House

大統領令の概要

大統領令はアメリカが責任あるAI開発と運用で世界のリーダーとなることを目的に制定された。バイデン政権は責任あるAI開発を進めており、Googleなど15社と自主規制に関する合意文章「Voluntary AI Commitments」を制定した。大統領はこの内容を拡充したもので、8つの項目から構成される。

  1. 安全基準:開発企業は大規模モデルの安全試験を実施しその結果を報告
  2. プライバシー保護:プライバシー保護技術(暗号化技術など)の開発を支援
  3. 国民の権利保護:AIアルゴリズムによる差別を制御するための基準を制定
  4. 消費者や患者の支援:医療でAIを安全に使うためのプログラム制定など
  5. 労働者の保護:労働者がAIにより不利益をこうむらないための基準の制定
  6. 技術革新促進:国立AIセンターで研究者や学生に計算環境を提供
  7. 国際社会との連携:G7や主要国と連携しAI安全規格の制定など
  8. 連邦政府のAI利用:連邦政府がAIを安全に利用するための基準を制定

安全基準

安全基準「New Standards for AI Safety and Security」では、AIの安全性とセキュリティと信頼性に関する新たな基準を規定する。その中心が、開発企業に大規模モデルの安全試験を実施し、その結果と関連情報を連邦政府に報告することを求めている。製品を出荷する前に、企業はモデルが安全でセキュアであることを保証することが義務付けられた。

AIモデルの安全試験

大規模モデルの安全試験の具体的なプロセスは:

  • 対象モデル:ファウンデーションモデル (パラメータ数が10B以上のモデルで、OpenAIのGPT-4やGoogleのPaLM 2など主要モデルが対象となる。更に、オープンソースとして公開されている10B以上のモデルも対象となる。Meta Llama 2をベースにモデルを開発する際にはこの義務が課される。)
  • 試験方式:Red Teaming (モデルを攻撃してアルゴリズムの脆弱性を検証する方式)
  • タイミング:モデルのトレーニング時(モデルの開発時に安全試験を実施し報告)

AIモデルの安全試験を要請する根拠法

AIモデルの安全試験に関しては「Defense Production Act」という法令に準拠する。Defense Production Actは国防のために大統領が民間企業に生産を要請することを認める法令で、コロナのパンデミックでワクチン製造などで使われた。今回は、国家安全保障の観点から、AIが国家や国民に重大なリスクをもたらすことを抑止するため、民間企業に安全対策を要請する。

AIの安全規格

大統領令は、AIシステムが安全でセキュアであるための、標準規格の制定やツールの開発や検査方法の制定を求める。具体的には、連邦政府に対し、この規定を実行することを求めている:

  • 国立標準技術研究所(NIST):Red Teaming方式で安全性を検証するための試験規格の制定
  • 国土安全保障省(DHS):規定された試験規格を基幹インフラに適用しAIのリスクを査定
  • エネルギー省(DOE)など:化学兵器、生物兵器、核兵器、サイバー攻撃に関しAIリスクを検証

バイオエンジニアリング

大統領令は、AIで危険なバイオマテリアルが製造されることを抑止することを求めている。具体的には、人工的にバイオマテリアルを生成するときの安全規格の制定を求める。バイデン政権は特に、AIで生物兵器など危険なマテリアルが生成されることを重視し、安全対策を求める。

AIが生成したコンテンツ

大統領令は、AIが生成したコンテンツにより、国民が騙されることを防ぐための基準の制定を求めている。また、AIが生成したコンテンツを安全に利用するため、ベストプラクティスの制定とコンテンツを見分ける技術の確立を連邦政府求めている。具体的には:

  • 商務省(DOC)は、コンテンツを認証する基準とAIが生成したコンテンツにウォーターマークを挿入する技術を開発する。
  • 連邦政府は、政府が国民に向けて発信するコンテンツにこの技術を導入し、配信するドキュメントが正当であることを保証する。

サイバーセキュリティ

大統領令は、AIを使って基幹インフラの脆弱性を見つけ、それを補強するための技術の確立を求めている。これは、バイデン政権が進めているハッキング・チャレンジ「AI Cyber Challenge」を拡大するもので、AIを使ってソフトウェアの弱点をあぶりだし、セキュアなシステムを構築する。

セキュリティメモランダム

大統領令は、AIと安全保障に関する次のアクションをメモランダム「National Security Memorandum」として定めるよう求めている。メモランダムは、軍事部門と諜報部門がAIを安全にかつ倫理的に活用する指針を定める。また、敵対国によるAIの軍事使用に対抗するための措置を定める。

規定されなかった項目1:ライセンス制度

大統領令はAI開発企業に幅広いアクションを求めているが、ここに規定されなかった条件は少なくない。厳しい規制を設けるものの、企業に対して責務を軽減する一定の配慮を示している。その一つがライセンスで、AI開発を認可制にすることは規定されなかった。ライセンスを受けた企業だけが大規模モデルを開発できる制度が導入されるとの予測もあったが、この方式は規定されなかった。

規定されなかった項目2:データ開示

AIモデルに関しどこまでの情報開示が求められるのかが最大の関心事であった。大統領令で、検査方式はRed Teamingと確定し、開示情報は検査結果のデータに限られた。AIモデルのアーキテクチャやサイズ(パラメータの数)や教育データについて開示することは求められなかった。生成AI開発で競争が激化する中、これらを配慮して、情報開示は必要最低限の範囲に留まった。

規定されなかった項目3:教育データの著作権

大統領令は、教育データの開示を求めていないことに加え、教育データに著作物が含まれているかどうかの情報提示も求めていない。市場では、書籍の著作者などがAI開発企業を著作権侵害で訴訟しているが、著作権に関する規定は制定されていない。AI開発者側に有利な内容となっている。

AI政策の大転換

アメリカ政府はAIの危険性は認識するものの、これを規制する政策については消極的な立場を取ってきた。しかし、ChatGPTなど高度な生成AIが登場し、危険性が顕著になり、バイデン政権はAI開発企業に自主規制を求めるなど、安全対策を進めた。大統領令により、これらが制度として確立し、AI開発企業は安全検査が義務付けられた。アメリカ政府は一転してAI規制に進路を転換したが、同時に、技術革新を支援するという現実的なオプションを選択した。

OpenAIは「GPT-4V」を公開、生成AIが視覚を持ち図形の意味を理解、媒体がテキストからイメージに広がりスキルが飛躍的に向上、同時に危険性も拡大

OpenAIはGPT-4に視覚機能を付加し機能を大幅に強化した。新モデルは「GPT-4V」と呼ばれ、テキストを理解するGPT-4にビジョンを搭載したモデルとなる。実際に使ってみると、GPT-4Vはイメージを理解する能力が極めて高く、人間のように多彩なタスクを実行できる。同時に、GPT-4Vはイメージに関する偏見や危険性を持っていることが明らかになり、新たに安全対策が求められる。

出典: OpenAI

GPT-4Vとは

GPT-4VはGPT-4にビジョンの機能を付加したモデルとなる。OpenAIはこの機能を論文で公開していたが、GPT-4Vがリリースされ、実際に利用できるようになった。GPT-4に写真を入力すると(左側)、GPT-4Vがこれを解析し、結果をテキストで出力する(右側)。プロンプトで「写真を詳細に説明して」と指示すると、写真に映っているビルやケーブルカーや通りや歩行者などを綿密に描写する。言葉を読むとその情景を再現できるほど詳細に回答する。

出典: VentureClef / OpenAI  

調理方法を説明

GPT-4Vの利用方法は様々で、料理の写真を入力し、その調理法を尋ねると(左側)、その結果を出力する(右側)。GPT-4は写真に写っている料理の種類を把握し、それぞれの調理方法を出力する。例えば、朝食の写真を入力すると、オムレツを作るための具材とその調理法を解説する。レストランで美味しい料理を食べた時に、それをカメラで撮影しておくと、その調理法を知ることができる。

出典: VentureClef / OpenAI

数学の問題を解く

GPT-4Vは手書きの文字を理解することができ、プロンプトに従ってそれを解析する。例えば、数学の問題を入力すると(左側)、GPT-4Vはそれを解くことができる(右側)。その際に、GPT-4Vは、問題を解く手順をステップごとに解析し、回答を導き出した手順を示す。答えだけでなく、回答を導き出したロジックを知ることができる。

出典: VentureClef / OpenAI 

芸術作品の鑑賞

GPT-4Vは芸術作品について豊富な知識を持っている。例えば、アメリカの画家Edward Hopperの作品「Summertime」を入力すると(左側)、その作品の意味を教えてくれる。なぜこの作品が評価されているかを尋ねると、GPT-4Vは、この絵画は「現代社会の孤独感を光と陰で表現している」と説明する(右側)。美術館で音声ガイドを使って作品を鑑賞するように、GPT-4Vが学芸員となり、絵画の背景や価値を解説する。

出典: VentureClef / OpenAI 

解けない問題も少なくない

GPT-4Vにパズルを入力すると、それが何かを把握し、回答を出力するが、間違っているケースが多々ある。クロスワードパズルを入力すると(左側)、GPT-4Vはそれを解析し、回答を導き出す(右側)。しかし、この答えは間違っており、正解にたどり着けない。また、数独(Sudoku)の問題を入力してもこれを解くことができない。数学のように論理に裏付けられた問題は得意であるが、定石が無いゲームは苦手のようである。

出典: VentureClef / OpenAI 

マルチモダルの年

今年2023年は「Year of Chatbots(チャットボットの年)」といわれ、OpenAIのChatGPTやGoogleのBardが高度な技術を示し、社会で急速に普及した。来年2024年は「Year of Multi-Modal」といわれ、生成AIがマルチメディアを理解する年になる。生成AIは、テキストの他に、ボイスやイメージを理解し、マルチモダルとなる。生成AIは、言語を理解し、言葉を話し、目で見ることができ、人間とオーバーラップする領域が大幅に増え、インテリジェンスが大きく向上すると期待されている。

【補足情報:GPT-4Vの機能制限】

システムカード

OpenAIはGPT-4Vの機能概要と制限事項を「GPT-4V(ision) system card」として公開した。これはシステムカードと呼ばれ、GPT-4Vの機能と制限事項を纏めたドキュメントとなる。OpenAIはGPT-4Vの機能を改善してきたが、まだ様々な危険性があると指摘している。GPT-4Vの利用に際しては、これらの問題を考慮してシステムを運用する必要がある。

健康に関する情報

GPT-4Vを医療や健康に関する情報の解析で利用する際は注意を要す。GPT-4Vは化学構造(Chemical Structure)を正しく判別することができない(右側)。また、キノコの種類を判定する精度は限られている。キノコの写真をGPT-4Vに入力し、その味を尋ねると、「これはタマゴテングタケ(Death Cap)で、味は無いが猛毒である」と回答(左側)。これは正解の事例であるが、多くのケースで判定が間違っており、GPT-4Vを毒キノコの判定で使うのは危険である。

出典: OpenAI

偏見と差別

GPT-4Vは事実と異なるバイアスしたコメントを出力する。例えば、女性の写真を入力し、アドバイスを求めると、GPT-4Vは「太っていても美しい」と、身体に関する意見を出力する(左端)。これはステレオタイプを反映したもので、GPT-4Vは女性の写真を身体の形状に結び付けるという、偏った解釈を示す。このため、最新モデルのGPT-4Vは、「回答できない」として、偏見を抑止する。

出典: OpenAI

GPT-4V開発手法

GPT-4VはGPT-4の技術に構築され、これにビジョン機能を搭載したモデルとなる。GPT-4Vは、テキストの中で次の言葉を予測するアルゴリズムで、モデルは大量のテキストとイメージのデータを使って教育された。更に、教育したモデルを人間が介在して最適化するプロセスを経た。この手法は、「Reinforcement Learning from Human Feedback (RLHF)」と呼ばれ、GPT-4Vが生成した回答の中で最適なものを人間が選び、これをモデルにフィードバックし、強化学習が回答のスキルを習得した。GPT-4Vはビジョン機能を持つ最初のモデルで、多くの危険性を内包しており、開発が続けられている。

サンフランシスコにAI新興企業が集結、「セレブラルバレー」で生成AIのブレークスルーが起こる

サンフランシスコがAI開発のハブとなっている。AIのスタートアップ企業がここに集結し、生成AIを中心に、次世代モデルを開発している。OpenAIはこの地で創業し、これを取り巻くように、AIスタートアップ企業が相次いでオフィスを開設している。ベンチャーキャピタルもここに拠点を移動し、AIのエコシステムが形成されている。インターネットは「シリコンバレー」で誕生したが、AIのブレークスルーは「セレブラルバレー」で起こる。

出典: Google Maps 

セレブラルバレーとは

セレブラルバレー(Cerebral Valley)とは、サンフランシスコのヘイズバレー(Hayes Valley、上の写真)の俗称である。いま、ここに生成AIの新技術を開発するスタートアップ企業が集結し、シリコンバレーに対峙して、セレブラルバレー(頭脳の谷)と呼ばれている。ここは、サンフランシスコ南部に位置し、近くにはUberやX(元Twitter)の本社があり、ハイテク地区となっている。

インキュベータ

この地区のすぐ南にはOpenAIの本社があり、セレブラルバレーはChatGPTなど生成AIを基盤とする技術開発の拠点となっている。ここにインキュベータが開設され、創業間もないスタートアップ企業が入居し、AI技術を開発している。住宅をオフィススペースとして提供し(下の写真)、ここでエンジニアたちが、生活を共にしながら技術開発を進める。生活共同体の方式で、生まれたばかりの生成AIを基盤とし、ここで新しいアイディアを生み出す。

出典: Google Maps 

OpenAI経済圏

サンフランシスコが生成AI開発のハブとなったが、それには理由がある。OpenAIが開発したChatGPTは、企業や消費者で使われるだけでなく、AI開発のコミュニティに大きな影響を及ぼした。今までは、AIを開発するにはデータサイエンスなど高度な技量を要したが、今では、ChatGPTを使うことで、参入の敷居が大きく下がった。誰でもAIを開発することができ、多くのエンジニアが独自のアイディアを製品化している。ChatGPTが生成AI開発ブームの起爆剤となり、多彩な製品が開発されている。(下の写真、OpenAIの本社)

出典: Google Maps

大手スタートアップ企業

サンフランシスコのダウンタウンには、AIスタートアップの中でも、大手企業が集結している。ベンチャーキャピタルから巨額の投資を受け、生成AIのファウンデーションモデルを開発している。豊富な資金を元に、大規模な言語モデルを開発し、OpenAIのGPT-4を凌駕するモデルを目指している。その代表がAnthropicで、ダウンタウンにオフィスを構え(下の写真、中央のビル)、次世代の生成AI基盤技術を開発している。

出典: Google Maps

サンフランシスコの転換期

コロナのパンデミックで、企業は一斉にリモートワークに移り、サンフランシスコからエンジニアの姿が消えた。オフィススペースは不要となり、空室が目立つようになった。この影響で、近辺のレストランや小売店は客足が遠くなり、通りはひっそりとし、治安も悪化した。しかし、ChatGPTでAI開発ブームに火が付き、多くの企業がサンフランシスコにオフィスをオープンし、活気が戻ってきた。

リモートワークでイノベーションは生まれない

シリコンバレーでインターネット技術が誕生したが、いま振り返ると、エンジニアたちは寝食を共にしながら、共同で技術開発を進めた。独自のアイディアを、他者に先駆けて市場に投入するため、オフィスに寝起きしながらプログラミングを続けた。生まれたばかりの柔らかいコンセプトを製品に仕上げるには、技術者同士の密接なコミュニケーションが求められる。いま、生成AIがこのフェイズに当てはまり、顔を突き合わせてブレーンストーミングする環境が必要となる。

出典: Google Maps 

ベンチャーキャピタルも注目

ベンチャーキャピタルもサンフランシスコがAI開発のハブになっていることに着目している。最大手のアクセラレータである「Y Combinator」は、オフィスをシリコンバレーからサンフランシスコに移転した(上の写真、一番手目のビル)。Y Combinatorは、生成AIのスタートアップ企業に重点的に投資し、第二のOpenAIを生み出すことを目論んでいる。セレブラルバレーで生成AIのブレークスルーが起きる可能性は高く、全米の注目を集めている。

バイデン政権はサイバーセキュリティの開発コンペティションを起動、生成AIでソフトウェアの脆弱性を検知しこれを自動で修正する

バイデン政権はAIでサイバー攻撃を防御する技術を競う大会「AI Cyber Challenge」を起動した。これは、社会インフラを担うソフトウェアを敵対国の攻撃から守ることを目的とし、コンペティションの形式でセキュリティ技術を開発する。生成AIでソフトウェアの脆弱性を探し出し、これを自動で修正する。米国政府は生成AIがセキュリティ技術を強化する切り札と認識し、この大会でブレークスルーを目指す。

出典: Artificial Intelligence Cyber Challenge

AI Cyber Challengeとは

AI Cyber Challengeとはアメリカ国防省配下の国防高等研究計画局(Defense Advanced Research Projects Agency (DARPA))が運営する大会で(上の写真)、GoogleやOpenAIなど生成AI企業が協賛する。大会はコンペティション形式で進められ、賞金総額は2000万ドル。大会期間は二年間で、予選を勝ち抜いたチームが決勝戦に進む。セキュリティ技術を強化することが目的で、課題「Challenge Project」が提示され、参加チームがこれを解くことでポイントを得る。

コンペティション

参加チームは、ソフトウェアの脆弱性を検知し、これを修正するプロセスを、全てAIで実行することが求められる。生成AIなど先進技術を活用し、アルゴリズムが人間に代わり、この工程を実行する。既に、機械学習や強化学習などAIモデルがセキュリティ技術に組み込まれているが、この大会では生成AIが着目されている。生成AIは言葉を理解する技術が格段に進化し、更に、プログラムを解析する機能や、コーディングする技量を有している。この手法を使って、参加チームが革新的な手法を生み出すことが期待されている。

協賛企業

このチャレンジには、Anthropic、Google、Microsoft、OpenAIが協賛企業として参加する。これらの企業は生成AI開発のリーダーで、参加チームにノウハウやスキルを提供し、問題の解決を支援する。また、オープンソース管理団体Linux Foundationも協賛企業として参加している。社会インフラでオープンソースが使われているが、多くの脆弱性を内包していることが指摘され、実際にサイバー攻撃の対象となっている。オープンソースの問題点を見つけ出すことが喫緊の課題となっている。競技はセキュリティ・カンファレンス「Black Hat」(下の写真)で実施され、同社は競技の運用などを担う。Black Hatはトップレベルのハッカーが参加することで知られている。

出典: Black Hat

生成AIをセキュリティに適用する

生成AIをセキュリティに応用することで、サイバー攻撃への防御技術が格段に向上すると期待されている。大規模言語モデルは言葉の他に、プログラムを使って教育されており、コードに関する深い知識を持つ。言葉の指示でコードを生成することに加え、プログラムを分析してバグを検知する機能がある。例えば、Anthropicの生成AI「Claude 2」を使って、プログラムが内包している脆弱性を検知するなどの使い方がある。大会では、生成AIというプラットフォームにどのようなアプリケーションを構築するかがカギとなり、「プロンプト・エンジニアリング」などの技量が試される。

Googleのセキュリティ技術

Googleは既に、生成AIをセキュリティ機能に最適化したモデル「Sec-PaLM 2」を開発した。これはGoogleの大規模言語モデル「PaLM 2」をベースとするセキュリティ技術で、マルウェアを高精度で検知する機能を持つ。Sec-PaLM 2は、システムに対する攻撃を把握し、これに対する防衛機能を自律的に実行する。また、システム全体を検証し、セキュリティに関する問題点などを指摘する。チャレンジではこれらの事例を参考に、新技術が開発されることになる。

スケジュール

大会は2年間にわたるコンペティションで、予選を勝ち抜いて、決勝戦で勝者が決まる(下のグラフィックス)。大会の概要は:

  • 予選:2024年5月、20チームが準決勝に進む
  • 準決勝戦:2024年8月:5チームが決勝に進む
  • 決勝戦:2025年8月:3チームが選ばれる、優勝賞金は400万ドル

応募枠は二種類あり、それぞれ「Open Track」と「Funded rack」なる。前者は誰でも参加できる枠で、後者は書類選考を経て参加チームが決まり、最大7チームを目途に、DARPAから参加費用が支給される。

出典: Artificial Intelligence Cyber Challenge

Cyber Grand Challenge

DARPAは過去にもセキュリティ・チャレンジ「Cyber Grand Challenge」を実施している。これは、ソフトウェアの脆弱性を検知し、これをリアルタイムで修正する技術を競うもので、2015年から二年間にわたり実施された。今回のコンペティションも、ソフトウェアの脆弱性を検知し、これを修正するものであるが、前回と異なり、このプロセスをAIで自動化することが求められる。そのため、生成AIの技術がカギとなり、防衛技術を自動化する。

DARPAのグランドチャレンジ

DARPAは、技術進化はコンペティションで生まれると認識しており、ブレークスルーを達成するために競技方式を採用してきた。過去には「DARPA Grand Challenge」として、自動運転車のレースが実施され、優勝チームがGoogleやUberの自動運転技術の基礎を築いた。AI Cyber Challengeでは、参加チームが問題を解いて、「旗を奪う」ことで得点を得る。これは「Capture the Flag」と呼ばれ、誰が最初に旗を奪うかというコンペティションとなる。米国政府はこの大会を通して、セキュリティ技術が格段に進化し、社会インフラがセキュアになることを期待している。