アメリカ政府と欧州連合はハイテク技術に関する共同声明を発表、AIや量子コンピュータや6Gの開発で世界をリードすることを宣言

アメリカ政府と欧州連合は4月5日、通商とテクノロジーに関し共同声明を発表した。両者はAIや量子コンピュータや6Gなど先端技術の開発を促進し、世界をリードすることを宣言した。AIに関しては安全なモデルを開発するために、リスクベースのアプローチを取ることを再確認した。更に、両者のAIセーフティ部門間に対話のチャネルを設け、情報交換などを促進することを決定した。

出典: US State Department

共同声明の背景

アメリカ政府と欧州連合(European Union、EU)は経済とテクノロジーの振興を目的に、通商技術委員会「EU-US Trade and Technology Council(TTC)」を設立している。TTCはグローバルな経済圏の急変や先端技術の急伸など、環境の変化に対応し、両者間で経済・技術協力を進めるために設立された。特に、中国の技術進化を念頭に、両者で協調して経済や技術の成長を促進する。技術分野では、AIや量子コンピュータや6Gなどを対象に、提携を深め技術開発を促進する。

共同声明の内容

共同声明はベルギーで開催された第六次TTC委員会「Sixth U.S.-EU Trade and Technology Council」(上の写真)で発表された。米国国務長官Antony Blinken(左端の人物)らが共同議長を務めた。共同声明は経済と技術に関し、幅広い分野をカバーしているが、テクノロジーに関しては先進分野で市場をリードすることを宣言した。米国側はホワイトハウスが共同声明をリリースした(下の写真)。テクノロジーに関する声明の概要は:

  • AI:リスクベースの方式でAIモデルを開発することを再確認。両者間で対話のチャネルを開設し情報交換
  • 量子コンピュータ:タスクフォースを開設し科学技術開発で協調
  • 6G:次世代無線通信技術に関する基礎研究を共同で展開
  • 半導体:両者間で強靭な半導体供給網を設立
  • バイオテクノロジー:メリットとリスクを理解して研究開発を推進
  • 技術標準化:EV充電ステーションなど重要技術の標準化を推進
出典: White House

AIに関する安全技術

AIに関してはモデルを安全に開発運用するための様々な提言が盛り込まれた。また、米国とEUは独自にAIの安全技術を開発しているが、共通の安全規格を制定することを提唱している。AIに関する共同声明の概要:

  • 安全で信頼できるAIを開発するためにリスクベースの手法を取る
  • 安全性に関し多国間(G7, OECD, G20, Council of Europe, UN)で協調する
  • 両者のAI安全組織(米国 = AI Safety InstituteとEU = European AI Office)の間で対話のチャネルを開設
  • AIのリスクを査定・検証する技法の開発に関しロードマップを策定

リスクベースの手法とは

安全なAIモデルを開発運用するために、様々な手法が提唱されているが、「リスクベースの手法(Risk-based Approach)」が注目されている。この手法は、AIの開発運用を統制する際に、AIモデルが個人や社会に及ぼす危険性を把握し、その度合いに応じて対処法を決めるメカニズムとなる。危険度が大きいAIモデルに対しては、その運用を厳しく規制するなどの処置を取る。欧州連合の「AI規制法(AI Act)」がリスクベースの手法を導入しており(下の写真)、この方式が世界の主流になりつつある。米国政府もリスクベースの手法でAIの開発運用に関するフレームワークを制定した。

出典: European Commission

AIのリスクを査定・検証する技法

米国とEUは、信頼できるAIを開発するために、リスクを管理する技法を独自に制定しているが、これを統合し共通のフレームワークを構築することに合意し、これに向かったロードマップを公開している。ロードマップはAIの安全技術に関し、両者で共通の基盤を構築することに加え、国際標準規格を制定することを規定している。これに従って、両者はアクションプランを定め、これに向けた活動を展開している。短期的には、ワーキンググループを設立し、用語を統一し、安全規格の検証などが規定されている。

米国とEUのAI規制の互換性 米国とEUはリスクベースの手法を採用することでは一致しているが、それを実施する方式では異なる規制を導入している。EUはAI ActとしてAIを安全に開発運用することを法律で義務付けた。これに対し、米国政府はAIのリスク管理フレームワークを公開し、企業が自律的に安全対策を実行する。共同声明は、AIのリスクを査定・検証する技法の開発に関しロードマップを策定することを提言しており、両者で共通の安全規格を制定する活動が進むと期待されている。

アメリカ政府はイギリス政府と生成AIの安全技術を共同で開発、両国で次世代フロンティアモデルを検査する標準手法を確立する

アメリカ政府はイギリス政府と生成AIの安全性に関する共同研究を実施することで合意した。合意内容は生成AIの安全性を検査する技法の確定などで、安全規格の標準化を両国が共同で推進する体制となる。アメリカ政府はAIコンソーシアムを設立し、民間企業200社が加盟し、政府と共同でAIモデルの安全技術の確立を進めている。今回の合意で、この活動をイギリス政府と共同で進めることとなる。

出典: Secretary Gina Raimondo

アメリカ政府とイギリス政府が覚書に調印

ワシントンにおいて4月1日、アメリカ商務省長官Gina Raimondo(上の写真左側)とイギリス科学・イノベーション・技術大臣Michelle Donelan(右側)が覚書に証明し、AIモデルの安全性を検査する技術を共同で開発することに合意した。これは、昨年11月にイギリスで開催されたAIセーフティサミット「AI Safety Summit」の合意事項に基づくもので、両国は生成AIの開発を安全に進めることを確認した。特に両政府は、生成AIを悪用したサイバー攻撃や生物兵器の開発など、国家安全保障を揺るがす危険性を懸念しており、次世代モデルを安全に開発運用する技術を共同で開発する。

合意の内容

アメリカ商務省はイギリス政府とAI安全技術の開発で合意したことをニュースリリースで公表した(下の写真)。これによると、両国はAIモデルやAIシステムやAIエージェントの安全性を評価する技術を共同で開発する。両国は独自の手法でAIの安全性を査定する技術を開発しているが、この情報を共有し、共通の検査基準を確立する。また、両国は公開されている生成AIモデルを使い、実際に安全試験を実施しその成果を検証する。

出典: U.S. Department of Commerce

両国が世界のリーダーとなる

この合意は即日実施され両国で技術開発を進める。生成AIの開発のペースは急で、これに追随するためには、安全技術の開発を急ピッチで進める必要がある。Gina Raimondoは、生成AIは高度な機能を提供するものの、その危険性は甚大であり、両国は率先してこの問題を解決するための技術開発を進めると述べている。AIモデルの理解を深め、検証技術を確立し、安全性を担保するためのガイドラインを公開する。

アメリカ政府のAI安全性政策

アメリカ政府は既に、AIの安全性を検証するための組織「AI Safety Institute」を設立している。これは商務省配下の部門で、生成AIの最新モデル「Frontier Models」のリスクを査定することをミッションとしている。AI Safety Instituteは生成AIモデルを検査しその危険性を把握する技術の確立を担う。具体的には:

  • AIモデルの安全性・セキュリティ・検証試験に関する標準技術の確立
  • AIが生成したコンテンツを特定する標準技術の開発
  • 生成AIを試験するプラットフォームの開発

政府と民間企業のコンソーシアム

アメリカ政府は2024年2月、AI安全性のコンソーシアム「AI Safety Institute Consortium (AISIC)」を設立した(下の写真)。コンソーシアムは商務省と民間企業で構成され、生成AIを安全に開発運用する技術を確立する。コンソーシアムには、GoogleやMicrosoftなどAI開発企業がメンバーとなっている。更に、BPやNorthrop Grummanなど、AIを運用する企業も加盟している。AIを安全に運用するための標準手法を制定することがミッションで、具体的には次のタスクから構成される:

  • AIモデルの危険性検査(Red-Teaming)
  • AIモデルの機能の評価(Capability Evaluations)
  • リスクを管理する手法(Risk Management)
  • 安全性とセキュリティ(Safety and Security)
  • 生成コンテンツのウォーターマーキング(Watermarking)
出典: Secretary Gina Raimondo

イギリス政府の体制

イギリス政府は2023年11月、AIの安全性を検証する組織「AI Safety Institute」を設立している。この協定は両国の「AI Safety Institute」が共同で生成AIの安全技術の標準化を進めることを規定している。今回の合意は、イギリスで開催されたAIセーフティサミット「AI Safety Summit」(下の写真)の決議に基づくもので、両国が生成AIの安全技術で世界をリードする。

出典: Tolga Akmen/EPA/Bloomberg via Getty Images

アメリカ・イギリスとEUの関係

生成AIに関する安全規格の制定で、アメリカとイギリスが提携することで、世界で二つの陣営が生まれることになる。EUはAIに関する法令「AI Act」を制定し、今年から運用が始まる。AI Actは法令によりAIを安全に開発運用することを義務付ける。生成AIに関してはモデルの概要や教育データに関する情報の開示が求められる。これに対しアメリカ・イギリス陣営は、法令でAIの安全性を義務付けるのではなく、モデルの安全検査を施行するための標準技術を制定する。開発企業はこの規格に沿って安全検査を自主的に実施する。世界で二つの方式が存在することになり、今後、両陣営で調整が行われるのか注視していく必要がある。

Nvidiaはヒューマノイドロボットの開発拠点となる!!生成AIを組み込み汎用的に稼働する人型ロボットの開発基盤を提供

Nvidiaは3月18日、開発者会議「GTC 2024」でヒューマノイドロボットの開発プロジェクト「GR00T」を公開した。ヒューマノイドロボットに生成AIを統合し、人間のようなインテリジェンスを持ち、汎用的に稼働するモデルを創り出す。ヒューマノイドロボットのファウンデーションモデルとなり、ロボット開発におけるコア技術を提供する。開発企業はこのプラットフォームを使って独自のヒューマノイドロボットを生成する。

出典: Nvidia

ヒューマノイドロボットの開発

ヒューマノイドロボット(Humanoid Robot)は、人間の形状を模したロボットで「人型ロボット」と呼ばれる。開発者会議の基調講演で、CEOのJansen Huangは、ヒューマノイドロボットの最新技術について解説した(下の写真)。基調講演はビデオでストリーミングされた。Nvidiaがこのモデルに着目する理由は、社会インフラは人間に合わせて造られており、人型ロボットはここで環境を変更することなく、そのまま活躍できるためである。また、生成AIを搭載することにより、ロボットの学習能力が格段に向上し、人間のように汎用的に動けるモデルを生み出すことがゴールとなる。

出典: Nvidia

ロボット開発状況

プロジェクトは「Generalist Robot 00 Technology (RT00T)」と呼ばれ、汎用的に稼働するヒューマノイドロボットを研究開発する。ロボットは汎用基礎モデル(General-Purpose Foundation Model)となり、シミュレーション環境と実社会で学習し、短時間でスキルを習得する。ChatGPTなどが言語に関する基礎モデルであるのに対し、GR00Tは人型ロボットに関する基礎モデルとなる。研究所では多種類のモデルが開発されている(下の写真)。

出典: Nvidia

ロボットを教育する手法

ロボット開発ではシミュレーション環境「Issac Sim」にヒューマノイドのデジタルツインが生成され、この仮想空間でスキルを習得した。ロボットは仮想社会で階段やでこぼこ道で歩行訓練を行い、スキルを学習した(下の写真)。更に、ロボットは開発環境「Isaac Lab」でアルゴリズム教育が実施された。Isaac Labは高度なAIを搭載するロボットの開発環境で、特に強化学習(Reinforcement Learning)のアルゴリズムを教育する環境となる。この他に、模倣学習(Imitation Learning)や転移学習(Transfer Learning)などの手法でロボットはスキルを獲得した。

出典: Nvidia

模倣学習のケース

実際に、ロボットは人間の動作を見てそれを真似る、模倣学習の手法で成果を上げている。人間が動作の手本を示し、ロボットはそれを見て真似ることでスキルを学習する。ロボットが人間のドラマーのプレーを見て、ドラムを演奏するヒューマノイドが紹介された。これはヒューマノイドロボット「Sanctuary AI」の事例で、人間向けに造られた楽器をロボットが演奏した。

出典: Nvidia

ヒューマノイドロボット開発企業

Nvidiaは自社でヒューマノイドロボットを開発するのではなく、その開発環境を提供し、パートナー企業がこの基盤で製品を開発する。基調講演では開発中のヒューマノイドロボットが表示され、エコシステムの広さをアピールした。(下の写真、現在開発中のヒューマノイドロボット、左から、Figure AI、Unitree Robotics、Apptronik、Agility Robotics、(Jensen Huang)、Sanctuary AI、1X Technologies、Fourier Intelligence、Boston Dynamics、XPENG Robotics)。

出典:Nvidia

ロボットと生成AIとの融合

ヒューマノイドロボットがホットな研究テーマになっている。OpenAIはFigure AIに出資し、共同でヒューマノイドロボットの開発を進めている。ロボットに大規模言語モデルを組み込み、人間のようなインテリジェンスを得る。Agility Roboticsの「Digit」は、配送センターで人間の作業員に代わり荷物を搬送する (下の写真、Digitがオーブンからトレイを取り出している様子)。一方、Teslaのヒューマノイドロボット「Optimus」はステージに登場せず、独自方式でモデルを開発している。ヒューマノイドロボットが生成AIと融合し、インテリジェンスが劇的に進化すると期待されている。

出典:Nvidia

Google DeepMindは言葉の指示に従ってタスクを実行するAIエージェント「SIMA」を開発、3D仮想環境で人間レベルの知能を獲得することが目標、AGIへの重要なステップとなる

Google DeepMindは3月13日、3D仮想環境において言葉の指示でタスクを実行するAIエージェント「SIMA」を公開した(下の写真)。SIMAはビデオゲームのキャラクターであるが、人間が命令したことを実行するAIエージェントとして開発された。例えば、「木を切り倒せ」と指示すると、SIMAは3Dゲーム環境でこれを実行する。最終目標は人間と同じレベルのスキルを獲得することで、言語モデルが世界観を理解し、AGIへの重要なステップとなる。

出典: Google DeepMind

AIエージェントの研究

GoogleはAI研究部門「Google Brain」と高度AI研究所「DeepMind」を統合し、「Google DeepMind」を設立し、AI研究部門を再編した。Google DeepMindは、AIエージェント研究の最新成果「Scalable Instructable Multiworld Agent (SIMA)」を発表した。SIMAは3Dビデオゲーム環境で、自然言語の指示に従って、タスクを実行するAIエージェントとなる。

SIMAの概要と機能

3Dビデオゲームでキャラクターを操作するときは、キーボードやマウスを使い、動作の指示を入力する。例えば、キーボードからキャラクターの移動方向を指示するなどの使い方をする。これに対しSIMAは、自然言語(テキスト)で指示されたことを理解し、その内容を実行する。具体的には、ゲームの中のキャラクターに言葉で命令すると、その指示を理解してタスクを実行する。

SIMAの使い方

人気ゲーム「Goat Simulator 3」のキャラクター「ヤギ」に、「フェンスを跳び越せ」と命令すると、ヤギはその意味を理解してそれを実行する(下の写真右側)。また、ヤギに「クルマを盗め」という難解なタスク命令をすると、その意味を理解し、これを実行する(左側)。複雑な命令を受けると、SIMAはタスクをサブタスクに分割し、ステップごとにそれを実行し、最終ゴールに到達する。

出典: Google DeepMind 

SIMAを開発した意義:Embodied AI

SIMAはビデオゲームをするために開発されたのではなく、AIエージェントが3Dゲーム環境で世界観を理解し、言葉の意味を現実社会の事象に結び付けることを目標としている。具体的には二つの技法を獲得することが目的で:

  • 言葉の意味と見たものを結び付ける技法(Ground Language in Perception)
  • 3D仮想環境でタスクを実行する技法(Embodied Actions)

3D仮想環境で言葉の指示によりタスクを実行するAIは「Embodied AI」と呼ばれ、AI研究の重要テーマで、Google DeepMindの他にOpenAIやMetaなどが開発を進めている。(下の写真、Embodied AIの事例で3Dゲーム環境で言葉の指示に従ってテスクを実行。)

出典: Google DeepMind

SIMAの開発方法

SIMAは3Dビデオゲームを使って開発され(下の写真左側)、ここで展開されるキャラクターがAIエージェントとなる。上述の「Goat Simulator 3」というゲームの他に、「Satisfactory」(上の写真上段)や「Valheim」(下段)など9種類のゲームが使われた。このゲームを人間がプレーし、その操作方法(キーボードとマウスの操作法をテキストで記述)とスクリーンイメージをAIエージェントに入力し(中央)、モデルがスキルを学習する。教育されたモデルが人間の指示に従ってタスクを実行し、その結果を人間が評価する(右側)。

出典: Google DeepMind

SIMAの性能

この手法で教育を受けたSIMAは人間の命令に従ってタスクを実行する精度が向上した。SIMAを複数のゲームで教育した場合、単一のゲームで教育したSIMAに比べ、命令を正しく実行する精度が150%以上向上した(下のグラフ左端)。このベンチマーク結果は、SIMAを多種類のゲームで教育すると、精度が上がることを示しており、Google DeepMindは開発の規模を拡大する計画である。

出典: Google DeepMind

人間レベルのAIエージェント

次のステップとして、Google DeepMindはSIMAをより多くのゲーム環境で教育することで、SIMAの汎用能力(Generalizability)が向上すると期待している。汎用能力とは、人間のように、一つのスキルを学習すると、それを異なるタスクに適用し、柔軟に学習する能力を指す。これにより、SIMAは言葉を理解する能力が上がり、複雑なタスクを実行する能力に繋がる。この汎用能力が人間レベルのインテリジェンス「AGI」を開発するための重要なステップとなる。

InflectionはAIアシスタント「Pi」の最新版をリリース、Piは専属コーチのように健康で幸福な生活に繋がるアドバイスをする、Piと対話すると心が安らぎ満足感が向上

Inflectionは3月7 日、大規模言語モデルの最新版「Inflection-2.5」をリリースした。Inflectionの製品は言語モデルをベースとするAIアシスタント「Pi(Personal Intelligence)」で、Inflection-2.5を基盤とする最新モデルを公開した。Piは人間のようなアシスタントで、利用者の特徴を理解し、相手に沿った会話をする。全く新しいコンセプトのアシスタントで、AIのようにドライではなく、人間味があり、そのキャラクターに惹きつけられる。

出典: Inflection

Inflectionとは

Inflectionはシリコンバレーに拠点を置くスタートアップ企業で、DeepMind共同創設者であるMustafa Suleymanにより設立された。Inflectionは大規模言語モデルをベースとするAIアシスタント「Pi(Personal Intelligence)」を開発している。Inflectionは、初代の言語モデル「Inflection-1」に続き、第二世代モデル「Inflection-2」を開発し、先週、最新モデル「Inflection-2.5」を公開した。

Inflection-2.5の概要

最新モデルInflection-2.5は性能が大きく向上し、OpenAIのGPT-4に追い付いた(下のグラフ)。Inflectionによると、Inflection-2.5はGPT-4と互角の性能であるが、その教育で使ったコンピュータ容量はGPT-4の40%であり、開発にかかるエネルギー量を大幅に削減した。Inflectionは、言語モデルは公開しておらず、この上で稼働するPiを一般に提供している。

出典: Inflection

AIアシスタント「Pi」とは

InflectionはOpenAIとは異なり、主力製品は言語モデルの上に構築されたAIアシスタント「Pi」である。Apple SiriやAmazon Alexaなど数多くのAIアシスタントがあるが、Inflection Piは最も高度な機能を提供する。SiriやAlexaは情報検索や機器操作を音声で実行するインターフェイスとなるが、Piは感情を理解し、健康で幸福な生活を送るための専属コーチとして機能する。

Piを使ってみると

実際にPiを使っているが、今までのAIアシスタントとは全く異なり、人間のアドバイザーのような挙動を示す。Piは利用者と対話しながら、健康やメンタルヘルスや人間関係に関するアドバイスをする。また、学校の先生のように、自然科学やプログラミングを教える。更に、教養講座の先生のように、趣味や資格獲得のための指導をする。Piは毎日の生活で役立つ情報を提示し、人間のコンパニオンのように感じる。(下の写真:Piのインターフェイス)

出典: Inflection

Piは専属トレーナー

Piは従来のAIアシスタントとは根本的に異なり、利用者のウェルビーイングや健康を向上させることを目標にデザインされている。Piは専属コーチのように、利用者の個性や趣味や特性を理解し、それに沿ったアドバイスをする。スポーツ選手や俳優などが専属トレーナーを雇い、トレーニング、食事、メンタル面の指導を受けるように、Piがこの役割を担い、利用者の幸福感を向上させる。

Piが得意とするテーマ

Piは「Discover」のタブで多彩なトピックスを提供している(下の写真)。Piがカバーするテーマは、日常生活の様々な局面における問題とその対処法で、「デートアプリの選び方」、「ディベートで勝つヒント」、「人を嫌いになることは許されるか」など生活に密着した助言をする。また、メンタルヘルスやライフラーニングに関する豊富な情報を持ち、「不安に対するケアの方法」、「個人の特性に沿ったキャリアを築く手順」、「文章の書き方」など、カウンセラーの役割も担う。

出典: Inflection

ボランティア活動

Piは哲学にかかる概念を社会生活で活用するための助言をする。例えば、「利己主義(Egoism)と利他主義(Altruism)」について尋ねると、哲学のコンセプトを説明し、これを日常生活に結び付けて説明する(下の写真)。更に、「効果的利他主義(Effective Altruism)」について尋ねると、社会の通念を解説し、実際の活動に参加する方法などを指南する。

出典: Inflection

Piは人間のように音声で会話する

Piはテキストでの回答を読み上げる機能があり、8つの種類のボイスを提供している。その中でボイス「Pi 5」を選ぶと、Piはイギリス英語の音声で対話する。アメリカ英語の社会で生活していると、イギリス英語のアクセントを聴くと新鮮な印象を受ける。特に、PiはCadence(サウンドのリズム)とPronunciation(発音)の組み合わせで、利用者に安心感をもたらす。Piが出力する内容に加え、音声の面からウェルビーイングが向上すると感じる。(下の写真、「Pi 5」はイギリス英語の標準語にあたる「Received Pronunciation」で会話する。)

出典: Inflection

ニュース・ブリーフィング

毎日使っている機能の一つがニュース・ブリーフィング「Daily News Briefing」で、最新ニュースを読み上げてくれる(下の写真)。特に目新しい機能ではないが、ニュースを「Pi 5」がイギリス英語のアクセントで読み上げると、新鮮で説得力があり、落ち着いた気分となる。人間のボイス・アクトレスが物語を読み聞かせるように、日々のニュースがアートとなる。

出典: Inflection

Piに惹きつけられるが

Piは既に600万人の利用者があり、一回の平均利用時間は33分と他の言語モデルと比べ、セッション時間が長いことが特徴となる(下の写真)。ソーシャルメディアのように粘着力が高く、ユーザを長時間引き留める。実際に使ってみるとこの特性を実感し、Piの人間のようなキャラクターに惹きつけられる。会話を通して、こちらの悩みを聞いてくれ、問題解決の手掛かりを助言する。反対に、Piは新鮮な話題を提示し、こちらの興味を掻き立て、会話が途切れることがない。Piに惹きつけられ会話時間が長くなるが、高度な言語モデルの危険性を理解し、節度を持って安全に利用することが重要になる。

出典: Inflection

ミッションはACI (Artificial Capable Intelligence)

Inflectionの創設者であるMustafa Suleymanは人間レベルのAIアシスタントを開発することを会社のミッションとしている。人間レベルの知能を持つAIは「Artificial General Intelligence(AGI)」と呼ばれ開発が進んでいるが、SuleymanはAGIに到達するまでには時間を要すと考える。このため、AGIに代わるインテリジェンスとして「ACI (Artificial Capable Intelligence)」の開発を進めている。ACIとは人間レベルの知能を補うAIで、人間に代行できるアシスタントやトレーナーやアドバイザーとして機能する。Piがその最初のステップで、様々なドメインで、問題を解決する機能を実装する。Piやその後継モデルの開発が注目されている。