トランプ氏圧勝・アメリカは変わった!!第二次政権でハイテク政策はどうなる、規制緩和でイノベーションが加速か、日本経済への影響は

アメリカ大統領選挙は大接戦と言われてきたがトランプ氏が圧勝した。国民の過半数が米国第一主義を支持し、この四年間で国民の総意が大きくシフトした。もはや今までの常識は通用せず、新しいパラダイムの元で事業を展開する必要がある。ハイテクに関しては、アメリカ国内で政策が大きく見直され規制緩和に向かう。日本や欧州へのインパクトも大きく、構築された関係が見直され、今後の協調のありかたを模索することになる。

出典: AP

巨大テックのスタンス

巨大テック経営者は一斉に、トランプ氏に祝意を示し、新政権と協調していく姿勢を示した(下の写真)。トランプ氏は選挙戦でハイテク政策に言及することは無かったが、規制を緩和することでイノベーションを促進する方向に進むとみられている。AI政策も例外ではなく、規制が緩和され技術開発が急進する勢いとなった。巨大テックやスタートアップ企業にとっては望ましい方向であるが、トランプ氏の発言がどう政策に反映されるのか不透明な部分は大きい。

出典: Jeff Bezos

ハイテク政策はどうなる

トランプ氏はハイテク政策に関し明確な意思表明をしていないが、共和党シンクタンクなどが政策を提言している。これは「Project 2025」と呼ばれ、トランプ第二次政権の政策を包括的に提示している(下の写真)。ハイテクに関しては、AI、量子コンピュータ、次世代通信技術/5G、次世代製造技術、バイオテクノロジーに関する政策に言及。AIに関しては、国家安全保障の観点から、中国を念頭に、AI先進技術を敵対国に輸出することを厳しく制限することを求めている。また、AIなど高度な技術が盗用されることを防ぐため、安全技術の開発を提言している。

出典: The Heritage Foundation

イノベーション推進

Project 2025はAIの安全性を求めると同時に、技術開発におけるイノベーションを推進することを提言している。これは「Tech-Neutral Approach」と呼ばれ、先進技術の開発を優先し、規制を最小限に留めるよう求めている。AI開発においては、政府の規制を最小限とし、企業による自主規制を推奨している。新政権がこの提言を採用するかどうかは見通せないが、基本路線としてはトランプ氏のビジョンに沿っている。トランプ政権がAI開発を後押しすることで、技術開発が急進する。

反トラスト法の運用を緩和

トランプ政権では反トラスト法の運用を緩和する方向に進むとみられている。バイデン政権では司法省がGoogleをインターネット検索や広告事業で反トラスト法に違反する疑いがあるとして提訴し、連邦地方裁判が司法省の主張を認める判決を下した(下の写真)。司法省はこの判決を受け、Googleを解体するなどの指針を示している。また、連邦取引員会(Federal Trade Commission)はMetaやAmazonを反トラスト法違反で提訴している。トランプ政権は、反トラスト法の厳格な運用方針を緩め、企業が自由に事業を展開できる方向に進む公算が大きい。

出典: Google

ソーシャルネットワーク

トランプ第一次政権はソーシャルネットワークTikTokを安全保障の観点から米国での事業を禁止する指針を打ち出した。バイデン政権では、連邦議会がTikTokの米国における事業を禁止する法令を可決した。トランプ氏は先の政策を翻し、TikTokの事業継続を認めると発言している。TikTokにとってはトランプ氏によりビジネス存続の危機を救われた形となった。一方、トランプ氏や共和党議員は、ソーシャルネットワークが保守系の意見を制限しているとして、Facebookなどに自由に発言できるよう求めている。ソーシャルネットワークはリベラルに偏重しているとして、Metaなどへの圧力が高まることが予想される。

暗号通貨

トランプ氏は暗号通貨をサポートするポジションを示し、選挙戦で暗号通貨企業や個人から絶大な支持を受けた。連邦議会下院議員の選挙では、暗号通貨をサポートする議員が相次いで当選し、暗号通貨コミュニティの影響力を示した。バイデン政権では証券取引委員会(Securities and Exchange Commission)が暗号通貨を規制する政策を展開しているが、トランプ政権ではこれを緩和する方向に進むとみられる。暗号通貨の取引が活発になることを見越して、ビットコインなど暗号通貨の価格が急上昇している。

出典: Adobe Generated with AI

シリコンバレーのムード

巨大テックの経営者はいち早く、トランプ氏と接触し協調していく姿勢を示した。また、スタートアップ企業は規制緩和で企業買収などが進み、ビジネスが活性化すると期待している。シリコンバレーはリベラルな文化で、トランプ氏を支援することはタブー視されてきた。しかし、企業の価値判断は事業収入で、個人の思想と相いれない部分があるものの、トランプ第二次政権と良好な関係を構築するための準備を進めている。

日本や欧州へのインパクト

トランプ新政権も米国第一主義を基軸政策とすることで、欧州や日本への影響が甚大となる。トランプ氏は自国の製造業を保護するため、同盟国からの輸入品に10%から20%の関税を課す方針を示しており、影響は避けられない情勢となっている。ハイテク分野においては、AIに関し同盟国と協調して安全技術の開発を進めてきたが、この方向性が不透明となった。

出典: Adobe Generated with AI

アメリカが変わった

2016年の大統領選挙では所謂MAGAサポータの支持で当選したが、今年はアメリカ国民の過半数がトランプ氏の政策に共鳴した。トランプ氏は異端者ではなく、アメリカ国民が米国第一や保護主義を基本理念する政策を望んでいる。バイデン政権は同盟国と協調する路線を歩んできたが、これが否定され、アメリカは自国優先の閉じた社会に向かうことになる。アメリカが大きく変わった。

出典: Adobe Generated with AI

オープンソースAIの定義が決まる、ソースコードの他にデータを開示する義務を規定、Meta Llamaをオープンソースと呼べない!!

オープンソース管理団体「Open Source Initiative (OSI)」は、10月28日、AIに関するオープンソースの定義を公開した。Linuxに代表されるように、ソフトウェアに関するオープンソースの定義は確定し、共通の理解が形成されている。しかし、生成AIを中心とするAIはソフトウェアとは構造が大きく異なり、オープンソースについての議論が続いていた。異なる定義が混在し市場が混乱していたが、OSIの発表によりオープンソースAIの位置づけが明確になった。しかし、Metaはこの定義を受け入れることはできないとして議論が再燃した。Metaは生成AIモデル「Llama」をオープンソースとして事業を構築しているが、この戦略の見直しを迫られる。

出典: Open Source Initiative

オープンソース・ソフトウェアとは

OSIはソフトウェアに関するオープンソースを「The Open Source Definition」として定義している。これによるとオープンソースのコンセプトは、ソフトウェアを自由に利用、改造、再配布できるものと定めれられている。この代表がLinuxでソフトウェアを無償で利用することができ、また、そのソースコードを自由に改造し、それを製品として販売することができる。これにより、誰もがソフトウェアの恩恵を受けることができ、また、技術開発が進むと期待される。

オープンソースAIの定義

これに対しOSIは新たにAIに関するオープンソースの定義「The Open Source AI Definition」を制定した(下の写真)。この理由は、AIはソフトウェアとは構成が大きく異なり、前述のThe Open Source Definitionを適用することができない。AIも広義のソフトウェアであるが、コードが単独で稼働するのではなく、データと密接に関連し、またシステム構成やそのパラメータが重要な役割を担う。AIオープンソースの定義は、これら要件を包括した内容となっている。

出典: Open Source Initiative

オープンソースAIの定義の概要

OSIによるオープンソースAIはデータ、コード、パラメータの三つのエレメントを含むと定義している。ソフトウェアのオープンソースはコードだけであるが、AIのケースではデータとパラメータが加わる。具体的には:

  • データ(Data Information):モデルの教育で使ったデータに関する詳細な情報。データの出典やデータにアクセスする手法などを公開する義務
  • コード(Code):モデルに関するソースコード。モデルを生成するためのコードの他に、モデルを教育及び実行するためのコードを公開する義務。AIモデル自体だけでなく、それを開発・運用するための一連のコードの公開を求めている。
  • パラメータ(Parameters):モデルの重み(Weights)や設定情報。重みとはモデルの挙動を決定する数値で、トランスフォーマではQuery、Key、Valueなどの値となる。AIモデルを教育することで重みなどを決定するが、これらを公開することを求めている。

コードとデータとパラメータの重要性

ソフトウェアではソースコードを公開することで、機能を理解しこれを改造して新たなソフトウェアを生成できる。これに対し、AIではソースコードを公開するだけでは、AIモデルを稼働させることができない。更に、ソースコードだけでは、これを改造して新たなモデルを生成するために多大な労力を要す。AIモデルを教育するためのデータと、その結果であるパラメータの公開が不可欠で、コードとデータとパラメータが対になり、AIシステムを再構築し、これをベースに新たなモデルを開発することができる。

米国政府はオープンソースAIを推奨

米国連邦政府の機関である取引委員会(Federal Trade Commission、FTC)はオープンソースAI普及を後押ししている。FTCは独自の見解を示し、AIがオープンソースであるためには、モデルのソースコードと重み(Weights)の公開が最低条件であるとしている。上述のコードとパラメータの公開を求めているが、データについては定義に加えていない。FTCはこれを「Open-Weights Foundation Models」と呼び、コードと重みの公開で技術開発が進むと期待している(下の写真)。

出典: Federal Trade Commission

Metaのオープンソース戦略

多くの企業が生成AIモデルを“オープンソース”として公開し、コミュニティの技術開発を支援している。Metaは生成AIモデル「Llama」を開発し、そのコードとパラメータを公開し、“オープンソース”としてリリースした。企業や個人はこのモデルを自由に使うことができ、コードを改造してビジネスや研究を進めることができる。OSIの定義によると、オープンソースと名乗るためには、コードとパラメータだけでなく、データの公開が必須となる。MetaはLlamaに関するデータを公開しておらず、オープンソースの定義を満たすことができない。このためMetaはOSIとの折衝を続け共通の理解を見つけるとしている。

オープンソースの危険性

生成AIをオープンソースとして公開することに関し、技術進化に寄与するという意見と、安全保障が脅かされるという意見があり、議論が続いている。特に、ハイエンドモデルは高度な機能を持ち、敵対国や攻撃集団がこれを悪用して、生物兵器などの開発で使われることが懸念される。また、生成AIを使ったサイバー攻撃が現実問題となり、国家安全保障の観点から重大なリスクを抱えることになる。

企業のオープンソース戦略

これに対し、企業は危険性を回避するため、ハイエンドモデルはクローズドソースとして運営し、ローエンドモデルだけをオープンソースとして公開する戦略を取る。Googleは、ハイエンドモデル(Gemini)はクローズドソースとして非公開で運用し、ローエンドモデル(Gemma)をオープンソースとして公開している(下の写真)。事業モデルの観点からは、ハイエンドモデルをビジネスの収益源とし、ローエンドモデルでエコシステムを拡大する。OSIの定義で統一した理解が形成されつつあり、Googleなど主要企業はオープンソースという名称を「オープンモデル(Open Models)」に変更し、その違いを明らかにしている。

出典: Google

現行の生成AIモデルは欧州の規制法「AI Act」に準拠できない!!コンプライアンス・チェッカー「COMPL-AI」の評価結果

EUはAIを安全に運用するための法令「AI Act」の運用を開始し、域内で事業を展開する企業はこの規定に従うことが義務付けられた。AI Actは複雑な法体系で、これを読み下し、AIシステムを評価するには、多大なコストと時間を要す。欧州の研究団体はモデルがAI Actに準拠しているかを審査するツール「コンプライアンス・チェッカー」を開発した。実際に、OpenAIやGoogleなど主要企業の製品をコンプライアンス・チェッカーで評価すると、AI Actに準拠できないことが判明した。生成AIに関する条項は来年8月に発効し、それまでに各企業はモデルの最適化など対策が求められる。また、生成AIモデルを改造して提供する際にもこの規定が適用され、生成AIを組み込んだシステムを開発する企業も対象となり注意を要す。

出典: Adobe Generated with AI

コンプライアンス・チェッカー

欧州の研究団体は生成AIモデルがAI Actに準拠するかどうかを査定するプラットフォーム「COMPL-AI」を公開した(下の写真)。これは法令のコンプライアンス・チェッカーとして機能し、生成AIモデルが法令の条項をクリアできるかどうかを審査する。COMPL-AIはオープンソースとして公開され、誰でも自由に生成AIモデルを評価することができる。EU域内で生成AIモデルを使って事業する企業はこのツールでシステムが法令に準拠しているかどうかを把握できる。

出典: compl-ai

コンプライアンス・チェッカーの仕組み

COMPL-AIはAI Actに関するコンプライアンスを評価する最初のフレームワークとなる。COMPL-AIはAI Actに規定されている条項を理解し、これを技術要件に変換し、それらをベンチマークテストを実行して、AIシステムのコンプライアンスを評価する構成となる(下の写真)。ベンチマーク結果は評価レポートとして出力され、AIシステムがAI Actの規定に準拠している部分と、そうでない部分を特定する。

出典: compl-ai

生成AIモデルの判定結果

COMPL-AIは、Anthropic、OpenAI、Meta、Googleなど主要企業の生成AIについて評価を実施しその結果を公開した。評価結果は1.00満点で示され、Claude 3 OpusやGPT-4 Turboは0.89と高い成績を示したが、AI Actの規定に準拠できない機能があることが分かった。また、Googleが提供するGemma-2-9bは0.72とコンプライアンスの度合いが低く、モデルにより大きな隔たりがあることが分かった。(下のグラフ、COMPL-AIの評価結果をAIで可視化)

出典: VentureClef Generated with AI

AI Actが規定する技術要件

COMPL-AIはAI Actが規定する条項に生成AIモデルが準拠しているかどうかを判定する。AI ActはAIシステムが準拠すべき条件を六つの領域に分類している(下の写真):

  • Human Agency & Oversight:人間の自主性を尊重、AIシステムは人間が制御し監視する
  • Technical Robustness and Safety:安定性と安全性、AIシステムはサイバー攻撃やエラーに対する耐性が高いこと
  • Privacy & Data Governance:プライバシーとデータ管理、教育データは著作権を尊重し個人情報を保護すること
  • Transparency:透明性、AIシステムは判定に関する説明機能やトレース機能を持つこと
  • Diversity, Non-discrimination & Fairness:多様性・平等・公平性、AIシステムは差別やバイアスによるインパクトを最小とすること
  • Social & Environmental Well-being:社会と環境のウェルビーイング、持続可能なAI開発を推進すること
出典: compl-ai

技術要件とベンチマーク

COMPL-AIはこれらAI Actが規定する六つの領域において、規制法の条項を技術要件「Technical Requirement」として抽出し、これに関連するベンチマークを特定する(下の写真)。ベンチマークは公開されているモデルを使い、技術要件とベンチマークを紐づける。AIモデルに対しこれらのベンチマークを実行し、その結果でコンプライアンスを評価する。例えば、「Technical Robustness and Safety」という項目では、技術要件が「Robustness and Predictability」となり、これを評価するベンチマークとして「MMLU:Robustness」などが使われた。

出典: Philipp Guldimann et al

評価結果レポート

COMPL-AIはAI Actが規定する六つの領域においてAIモデルがこれらに準拠しているかを評価する。上述の「Technical Robustness and Safety」においては、モデルの安定性と安全性に関し、AI Actの規定に合致しているかを検証する(下の写真)。AI Actはこの領域において三つの規定を設けており、COMPL-AIはAIモデルをこの技術要件から評価する。実際の評価では、業界の標準ベンチマークテストが使われ、その結果が評価基準として使われる。

出典: compl-ai

生成AIモデルのコンプライアンス状況

COMPL-AIは現行の生成AIモデルの評価結果を公開したが、AI Actに準拠できない項目があることが判明した。世界で幅広く利用されている生成AIモデルであるが、AI Actの規定に準拠するには最適化など、更なる開発が求められる。総評としては:

  • 準拠できない項目:現行の生成AIモデルはAI Actに準拠できない規定がある。サイバーセキュリティや公平性のベンチマークでは達成度は50%。攻撃への耐性強化などが求められる。
  • 有害なコンテンツ:一方で、多くのAIモデルは有害なコンテンツの出力を抑制する機能についてはAI Actの規定に準拠できる水準に達している。
  • 規定を明確にする必要性:著作権保護やプライバシー保護の規定に関しては、AI Actの規定が明確でなく、定義を明確にする必要がある。

AI Actの生成AI規制条項

AI Actでは生成AIは「General-Purpose AI (GPAI)、汎用AI」と定義され、安全に運用するための規定が制定された。生成AIは幅広いタスクに適用されるため「汎用AI」として定義され、その開発や運用において、モデルの情報を開示することが義務付けられている。生成AIが準拠すべき条件については「Codes of Practice」に記載されるが、この規定についてはまだ検討が続いている。汎用AIについては、一般からのコメントを参考に、2025年5月に最終決定される。

オープンソースのコンプライアンス・チェッカー

COMPL-AIはAI Actだけでなく、米国や日本で制定されるAI規制法のコンプライアンス・チェッカーに応用できると期待されている。米国ではこれからAI規制法の整備が急速に進む状況で、生成AIモデルのコンプライアンスを評価するツールが求められる。Googleなどの大手企業は独自のツールを整備しているが、一般企業は、COMPL-AIを利用することでモデルのコンプライアンスを評価できる。企業経営者にとって動きが激しいAI規制法に準拠できるかが最大の懸念材料で、オープンソースのコンプライアンス・チェッカーの役割に注目が集まっている。

出典: Adobe Generated with AI

ヒントン教授はAI基礎技術「ボルツマンマシン」の開発でノーベル物理学賞を受賞、人工ニューラルネットワークがデータに内在する特性を把握、モデルが学習する機能を実現しAIブームに繋がる

今年のノーベル物理学賞はAIの基礎技術「人工ニューラルネットワーク」の開発に関わった、ジョン・ホップフィールド教授とジェフリー・ヒントン教授に授与された。ホップフィールド教授は連想記憶技術を開発し、ヒントン教授はこれを基盤とし、モデルが学習するメカニズムを考案した。その後、ヒントン教授はイメージを識別するモデルを開発し、これが今のAIブームの起点となった。ヒントン教授はGoogleでAI研究を続けてきたが、昨年退社し、今は自由な立場でAIの危険性について警鐘を発信している。受賞会見ではAIが人類を滅亡させるリスクに触れ、AI規制法の整備とAIの安全性に関する研究を強化することを提唱した。

出典: Nobel Foundation

ノーベル物理学賞

スウェーデン王立科学アカデミー(Royal Swedish Academy of Sciences)は、機械学習の基礎技術となる人工ニューラルネットワーク(Artificial Neural Network)の考案に関わったジョン・ホップフィールド教授(John Hopfield)とジェフリー・ヒントン教授(Geoffrey Hinton)にノーベル物理学賞を授与した:

  • ホップフィールド教授:人工ニューラルネットワークで連想記憶(associative memory)のモデルを開発。このモデルは「ホップフィールド・ネットワーク(Hopfield Network)」と呼ばれ(下の写真左側)、情報を格納しそれを読み出す技術。
  • ヒントン教授:ホップフィールド・ネットワークを拡張して「ボルツマンマシン(Boltzmann Machine)」を考案(中央)。人工ニューラルネットワークがデータに内在する特性を把握する技法。その後、「リストリクティッドボルツマンマシン(Restricted Boltzmann Machine、RBM)」の研究に関与し軽量で効率的なモデルを開発(右側)。
出典: Nobel Foundation

ボルツマンマシンとは

ヒントン教授は1985年、他の研究者と共同で新しい構造の人工ニューラルネットワーク「ボルツマンマシン」に関する論文を発表した。ボルツマンマシンは「回帰型ニューラルネットワーク(Recurrent Neural Network)」というタイプのモデルで、システム内で処理が循環する構造となる。回帰処理(繰り返し処理)によりノード間の重み(Weights)が更新され、最適なポイントに到達する。ボルツマンマシンのコンセプトはモデルのエネルギーを最小にすることが目的で、統計力学の手法「ボルツマン分布(Boltzmann Distribution)」を導入した。これがモデルの名称となっている。

ボルツマンマシンのネットワーク構造

ボルツマンマシンは人工ニューラルネットワークで、ニューロン(ノード、上の写真の○)が結合された構成となる。結合の強さは重み(Weight、上の写真Wij)で決定され、ノードがオン・オフの状態を取る。また、ノードは「Visible Nodes」(白丸)と「Hidden Nodes」(黒丸)で構成される。前者は外部とつながり、データを読み込み、また、データを読み出すことができる。後者は外部との接続は無く、ネットワーク内で処理を実行し、様々な特性を学習する。

リストリクティッドボルツマンマシン(RBM)とは

ボルツマンマシンは入力データの含まれている特性を把握する機能を持つが、その構造は回帰型ニューラルネットワークで、ノードごとに逐次処理をするため、演算に時間がかかる。RBMはボルツマンマシンを軽量化した構造で、効率的に処理ができるモデルとなる。RBMは各層におけるノード間の接続は無い軽量な構造で、層ごとに処理を実行し計算量を減らし、効率的なモデルとなる。RBMも同様に、モデルのエネルギーを最小にするポイントを算出することがゴールとなる。その際に、ヒントン教授は効率的なアルゴリズム「Contrastive Divergence」を考案し、モデルが収束するスピードを高速化した。

RBMの使い方

RBMは入力データに含まれている特性を抽出するために使われる。RBMはEコマースサイトで商品やサービスを推奨するシステムのコア技術として利用されてきた。例えば、映画推奨システムでは、消費者が見た映画をRBMに入力すると、その消費者が興味を示す映画を提示する(下の写真)。モデルの下段がVisible Nodesで、ここに映画のタイトルなどを入力し、上段がHidden Nodesで、入力されたデータに内在する特性を把握する。具体的には、消費者の映画に関する嗜好(ジャンルや俳優の好み)を把握する。これをベースに推奨する映画を出力する(Visible Nodesの白丸の部分)。

出典: GM Harshvardhan et al.

フィードフォワードネットワーク

回帰型ニューラルネットワークの研究と並列して、フィードフォワードネットワーク(Feedforward Networks、下の写真)の研究が進行した。これは、ネットワーク処理のフローが前進するタイプで、「Input Layer」が入力データを受け取り、これを「Hidden Layers」で処理し、その結果を「Output Layer」が出力する形式となる。現在のニューラルネットワークの多くがこの方式を取っている。ヒントン教授は他の研究者と共同で、ネットワークを教育する手法「バックプロパゲーション(Backpropagation)」を考案し、これが深層学習(Deep Learning)の開発を加速させる革新技術となった。バックプロパゲーションは、ニューラルネットワークの出力と正解を比較し、その誤差(Loss)を最小にする手法で、各層のノードのパラメータ(重みとバイアス)を最適化する。

出典: Nobel Foundation

畳み込みニューラルネットワーク

1980年代にはフィードフォワードネットワークである「畳み込みニューラルネットワーク(Convolutional Neural Networks(CNN))」が開発された。Yann LeCunが「LeNet-5」というアーキテクチャを発表し、これが現在のCNNの基礎技術となった。2012年には、ヒントン教授のチームが「AlexNet」を発表しCNNの性能が大きく進化した。AlexNetはイメージの中のオブジェクトの種類を特定する技術で、ニューラルネットワークが高い精度をマークした(下の写真、写真に写っているリンゴを判定したケース)。イメージ判定コンペティション「ImageNet Large Scale Visual Recognition Challenge」で、AlexNetにより判定精度が劇的に向上し、AI業界に衝撃をもたらした。この研究はヒントン教授と門下のAlex KrizhevskyとIlya Sutskeverで行われた。Sutskeverはその後、OpenAIの設立に加わりAIの安全技術を研究していたが、現在は、スタートアップ企業を創設し、ここで研究を継続している。

出典: Pornntiwa Pawara et al.

DNNresearch

この研究成果を切っ掛けに、ヒントン教授らはAI研究の新興企業「DNNresearch」を設立した。ここで、「Deep Neural Networks (DNNs)」と呼ばれる深層学習の分野で、ネットワークの階層を多段にしたモデルの研究を進めた。2013年、GoogleがDNNresearchを買収し、ヒントン教授らはGoogle配下で研究を続け、この成果がGoogle Photoなどで使われた。

AIの危険性に関する啓もう活動

2023年、ヒントン教授はGoogleを去り、自由な立場でAIの危険性を発信し、社会に向かって警鐘を鳴らしている。ヒントン教授はノーベル賞の記者会見で、AIが社会に多大な利益をもたらすと同時に、重大なリスクを抱えていると述べた(下の写真)。短期的には、AIによりフェイクイメージが拡散し、選挙において有権者が誘導される危険性を指摘。長期的にはAIが人類を滅亡させるリスクについて見解を提示した。人間よりインテリジェントなAIが開発されたとき、人類はこのスーパーインテリジェンスをどう制御するのか、重大な懸念を示した。このモデルはあと5年から20年のレンジで開発されるとの予測を示し、AI開発において安全技術の研究が極めて重要であると述べた。企業は開発費用の30%をこの研究に費やし、安全なモデルの開発を進めるべきで、政府はAIを安全に運用するための規制法を整備する必要があるとの見解を示した。これからは第一線の研究から実を引き、AIの安全性に関する活動に専念するとしている。

出典: University of Toronto

国際連合はAIガバナンスに関する報告書を公開、OECD(AI基本指針)やG7(広島AIプロセス)など多国間協定を統括する役割を担う、地球温暖化とAIを最重要テーマと位置付ける

国際連合(United Nations)は先月、AIに関する包括的な報告書「Governing AI for Humanity」を公開した。これはAIガバナンスをグローバルに展開するための意見書で、AIのリスクを認識し、世界の人々が利益を享受できるフレームワークを提言している。報告書は地球温暖化対策をモデルに、AIのリスクを査定するためのパネルの設置を推奨する。国際社会ではOECD(AI基本指針)やG7(広島AIプロセス)など、AIを安全に管理するための枠組みの構築が進んでいるが、国際連合がこれらの活動を統括しグローバルなフレームワークを制定する。

出典: United Nations

報告書:Governing AI for Humanity

国際連合のAIに関する委員会「UN High-Level Advisory Body on Artificial Intelligence」は、先月、AIに関する報告書「Governing AI for Humanity」(下の写真)を公開した。この報告書は国際社会を対象にしたもので、AIを倫理的に運用するための基礎データを示し、国際連合が取るべき政策を推奨している。報告書は、AIは大きな可能性を秘めているとの見解を示すと同時に、AIの危険性やそれを運用するインフラが未整備であることを理解する必要があるとしている。

AIガバナンスに関する政策推奨

報告書は、国際連合に対して世界各国がAIガバナンスを推進することを求め、また、各国政府に対してはAI開発において国民の人権を守ることを求めている。この目標を実現するために七つの提言をしている:

  • AIに関するパネル:AIを科学的に解析し共通の理解を持つための委員会。気候変動に関する政府間パネル(IPCC)のAI版を制定。
  • AIガバナンスに関する議論:国際連合はAIガバナンスに関する議論を進めるためのプラットフォームを設置
  • AI技術標準化:AI技術の標準化をグローバルに推進するための枠組み制定
  • AI開発インフラ:世界の研究者がAI開発を展開できるためのネットワーク整備
  • AI基金:世界でAIインフラを整備するための基金を創設
  • AI教育データ:AI教育データにおける技術標準化やプライバシーの保護
  • AIオフィス:これらのタスクを実行するために国際連合内にAIオフィスを設置
出典: United Nations

政策推奨の骨子

この提言は三つの骨子から構成され、1)共通の理解の構築:世界で展開されるAIに関し共通の理解を持つ、2)共通の立場の構築:世界で進むAIガバナンス整備を統括し共通の指針を整備、3)世界が共通してメリットを享受:世界でAI分断(AI Divide)が顕著になりこのギャップを埋めるためAIシステムを整備、となる。

AIリスクに関する認識

報告書は世界のAI開発や運用を解析し、それを共通の理解としてまとめ、政策を推奨するための基礎資料としている。これらはグローバルなAIガバナンスに関する最新情報で、国際社会におけるAIに関する基礎データとなる。その一つがAIリスクに関する認識で、国際社会における懸念事項を理解できる(下のグラフ)。最大のリスクは偽情報で情報操作によりメディアへの信頼性が低下するとしている。また、AI兵器が使われることや、AI技術が少数の企業や個人に支配されていることに、強い懸念を示している。

出典: United Nations

AIにより不利益となるグループ

AIの技術開発が進む中、報告書はAIの危険性が増大するグループや地域をリストしている(下の写真)。これによると、社会的に排除されているグループ(Marginalized Communities、人種などにより差別されている集団)やグローバルサウス(Global South、アフリカやアジアや南アメリカなど)などがAIにより不利益を被るとしている。特に、グローバルサウスは、これらの国々でAIを利用するインフラが未整備であり、インターネット・デバイドのように、AIデバイドが顕著になっているとしている。

出典: United Nations

世界各地のAIガバナンス展開状況

世界の主要国では安全なAIを開発運用するためのフレームワークの設立が進んでいる(下の写真)。国や地域がAIガバナンスのためのガイドラインや運用指針を制定しており、責任あるAI開発と運用を進めている。その主なものは:

  • OECD AI Principles:経済協力開発機構が制定したAI基本指針
  • G20 AI Principles:G20が制定したAI基本指針
  • UNESCO Recommendations on the Ethics of AI: ユネスコが生成したAI倫理指針
  • G7 Hiroshima Process International Guiding Principles:G7の広島AIプロセス国際指針、高度な AI システムを開発する組織向けの国際指針
  • General Assembly:国際連合のAIに関する総会決議
  • Bletchley Declaration:英国政府のAIセーフティ宣言
  • EU AI Act:欧州政府のAI規制法

世界の主要国はAIガバナンスに関する取り組みを進めており、国際連合はこれらを総括し、共通の基盤を設立する役割を担う。

出典: United Nations

AI技術標準化を推進

世界各国のAIガバナンスを推進する母体はOECDやG20やG7やUNESCOなどの国際団体や国際会議となる。この他に、EUや英国政府など地域連合や国がAI規制法の整備を進めている。また、AI技術の標準化についてはISO、IEEE、ITUなどが重要な役割を占める。また、米国においてはAI Safety InstituteやNISTなどがAIの安全技術を開発する役割を担う。様々な団体がAI技術の標準化を進めており、報告書は国際連合が情報を共有するプラットフォームを構築し、技術標準化を推進すべきとしている。

出典: United Nations

AIガバナンスが喫緊の課題

国際連合の主要テーマは気候変動と破壊的技術(Disruptive Technology)で、特にAIのガバナンスを喫緊の課題としている。先進国を中心にAIを安全に運用するための法令やガイドラインの整備が進んでいるが、国際連合はこれらを総括し、グローバルなフレームワークを制定することを最終目的とする。国際連合は人権高等弁務官事務所(Office of the United Nations High Commissioner for Human Rights)など人権の保護と啓蒙を推進する組織を持ち、これらのインフラをAIガバナンスに適用する。国際連合は気候変動対策で重要な役割を担っているが、この成果を参考に、AIガバナンスにこの手法を適用し主導的な役割を担う。