月別アーカイブ: 2024年10月

現行の生成AIモデルは欧州の規制法「AI Act」に準拠できない!!コンプライアンス・チェッカー「COMPL-AI」の評価結果

EUはAIを安全に運用するための法令「AI Act」の運用を開始し、域内で事業を展開する企業はこの規定に従うことが義務付けられた。AI Actは複雑な法体系で、これを読み下し、AIシステムを評価するには、多大なコストと時間を要す。欧州の研究団体はモデルがAI Actに準拠しているかを審査するツール「コンプライアンス・チェッカー」を開発した。実際に、OpenAIやGoogleなど主要企業の製品をコンプライアンス・チェッカーで評価すると、AI Actに準拠できないことが判明した。生成AIに関する条項は来年8月に発効し、それまでに各企業はモデルの最適化など対策が求められる。また、生成AIモデルを改造して提供する際にもこの規定が適用され、生成AIを組み込んだシステムを開発する企業も対象となり注意を要す。

出典: Adobe Generated with AI

コンプライアンス・チェッカー

欧州の研究団体は生成AIモデルがAI Actに準拠するかどうかを査定するプラットフォーム「COMPL-AI」を公開した(下の写真)。これは法令のコンプライアンス・チェッカーとして機能し、生成AIモデルが法令の条項をクリアできるかどうかを審査する。COMPL-AIはオープンソースとして公開され、誰でも自由に生成AIモデルを評価することができる。EU域内で生成AIモデルを使って事業する企業はこのツールでシステムが法令に準拠しているかどうかを把握できる。

出典: compl-ai

コンプライアンス・チェッカーの仕組み

COMPL-AIはAI Actに関するコンプライアンスを評価する最初のフレームワークとなる。COMPL-AIはAI Actに規定されている条項を理解し、これを技術要件に変換し、それらをベンチマークテストを実行して、AIシステムのコンプライアンスを評価する構成となる(下の写真)。ベンチマーク結果は評価レポートとして出力され、AIシステムがAI Actの規定に準拠している部分と、そうでない部分を特定する。

出典: compl-ai

生成AIモデルの判定結果

COMPL-AIは、Anthropic、OpenAI、Meta、Googleなど主要企業の生成AIについて評価を実施しその結果を公開した。評価結果は1.00満点で示され、Claude 3 OpusやGPT-4 Turboは0.89と高い成績を示したが、AI Actの規定に準拠できない機能があることが分かった。また、Googleが提供するGemma-2-9bは0.72とコンプライアンスの度合いが低く、モデルにより大きな隔たりがあることが分かった。(下のグラフ、COMPL-AIの評価結果をAIで可視化)

出典: VentureClef Generated with AI

AI Actが規定する技術要件

COMPL-AIはAI Actが規定する条項に生成AIモデルが準拠しているかどうかを判定する。AI ActはAIシステムが準拠すべき条件を六つの領域に分類している(下の写真):

  • Human Agency & Oversight:人間の自主性を尊重、AIシステムは人間が制御し監視する
  • Technical Robustness and Safety:安定性と安全性、AIシステムはサイバー攻撃やエラーに対する耐性が高いこと
  • Privacy & Data Governance:プライバシーとデータ管理、教育データは著作権を尊重し個人情報を保護すること
  • Transparency:透明性、AIシステムは判定に関する説明機能やトレース機能を持つこと
  • Diversity, Non-discrimination & Fairness:多様性・平等・公平性、AIシステムは差別やバイアスによるインパクトを最小とすること
  • Social & Environmental Well-being:社会と環境のウェルビーイング、持続可能なAI開発を推進すること
出典: compl-ai

技術要件とベンチマーク

COMPL-AIはこれらAI Actが規定する六つの領域において、規制法の条項を技術要件「Technical Requirement」として抽出し、これに関連するベンチマークを特定する(下の写真)。ベンチマークは公開されているモデルを使い、技術要件とベンチマークを紐づける。AIモデルに対しこれらのベンチマークを実行し、その結果でコンプライアンスを評価する。例えば、「Technical Robustness and Safety」という項目では、技術要件が「Robustness and Predictability」となり、これを評価するベンチマークとして「MMLU:Robustness」などが使われた。

出典: Philipp Guldimann et al

評価結果レポート

COMPL-AIはAI Actが規定する六つの領域においてAIモデルがこれらに準拠しているかを評価する。上述の「Technical Robustness and Safety」においては、モデルの安定性と安全性に関し、AI Actの規定に合致しているかを検証する(下の写真)。AI Actはこの領域において三つの規定を設けており、COMPL-AIはAIモデルをこの技術要件から評価する。実際の評価では、業界の標準ベンチマークテストが使われ、その結果が評価基準として使われる。

出典: compl-ai

生成AIモデルのコンプライアンス状況

COMPL-AIは現行の生成AIモデルの評価結果を公開したが、AI Actに準拠できない項目があることが判明した。世界で幅広く利用されている生成AIモデルであるが、AI Actの規定に準拠するには最適化など、更なる開発が求められる。総評としては:

  • 準拠できない項目:現行の生成AIモデルはAI Actに準拠できない規定がある。サイバーセキュリティや公平性のベンチマークでは達成度は50%。攻撃への耐性強化などが求められる。
  • 有害なコンテンツ:一方で、多くのAIモデルは有害なコンテンツの出力を抑制する機能についてはAI Actの規定に準拠できる水準に達している。
  • 規定を明確にする必要性:著作権保護やプライバシー保護の規定に関しては、AI Actの規定が明確でなく、定義を明確にする必要がある。

AI Actの生成AI規制条項

AI Actでは生成AIは「General-Purpose AI (GPAI)、汎用AI」と定義され、安全に運用するための規定が制定された。生成AIは幅広いタスクに適用されるため「汎用AI」として定義され、その開発や運用において、モデルの情報を開示することが義務付けられている。生成AIが準拠すべき条件については「Codes of Practice」に記載されるが、この規定についてはまだ検討が続いている。汎用AIについては、一般からのコメントを参考に、2025年5月に最終決定される。

オープンソースのコンプライアンス・チェッカー

COMPL-AIはAI Actだけでなく、米国や日本で制定されるAI規制法のコンプライアンス・チェッカーに応用できると期待されている。米国ではこれからAI規制法の整備が急速に進む状況で、生成AIモデルのコンプライアンスを評価するツールが求められる。Googleなどの大手企業は独自のツールを整備しているが、一般企業は、COMPL-AIを利用することでモデルのコンプライアンスを評価できる。企業経営者にとって動きが激しいAI規制法に準拠できるかが最大の懸念材料で、オープンソースのコンプライアンス・チェッカーの役割に注目が集まっている。

出典: Adobe Generated with AI

ヒントン教授はAI基礎技術「ボルツマンマシン」の開発でノーベル物理学賞を受賞、人工ニューラルネットワークがデータに内在する特性を把握、モデルが学習する機能を実現しAIブームに繋がる

今年のノーベル物理学賞はAIの基礎技術「人工ニューラルネットワーク」の開発に関わった、ジョン・ホップフィールド教授とジェフリー・ヒントン教授に授与された。ホップフィールド教授は連想記憶技術を開発し、ヒントン教授はこれを基盤とし、モデルが学習するメカニズムを考案した。その後、ヒントン教授はイメージを識別するモデルを開発し、これが今のAIブームの起点となった。ヒントン教授はGoogleでAI研究を続けてきたが、昨年退社し、今は自由な立場でAIの危険性について警鐘を発信している。受賞会見ではAIが人類を滅亡させるリスクに触れ、AI規制法の整備とAIの安全性に関する研究を強化することを提唱した。

出典: Nobel Foundation

ノーベル物理学賞

スウェーデン王立科学アカデミー(Royal Swedish Academy of Sciences)は、機械学習の基礎技術となる人工ニューラルネットワーク(Artificial Neural Network)の考案に関わったジョン・ホップフィールド教授(John Hopfield)とジェフリー・ヒントン教授(Geoffrey Hinton)にノーベル物理学賞を授与した:

  • ホップフィールド教授:人工ニューラルネットワークで連想記憶(associative memory)のモデルを開発。このモデルは「ホップフィールド・ネットワーク(Hopfield Network)」と呼ばれ(下の写真左側)、情報を格納しそれを読み出す技術。
  • ヒントン教授:ホップフィールド・ネットワークを拡張して「ボルツマンマシン(Boltzmann Machine)」を考案(中央)。人工ニューラルネットワークがデータに内在する特性を把握する技法。その後、「リストリクティッドボルツマンマシン(Restricted Boltzmann Machine、RBM)」の研究に関与し軽量で効率的なモデルを開発(右側)。
出典: Nobel Foundation

ボルツマンマシンとは

ヒントン教授は1985年、他の研究者と共同で新しい構造の人工ニューラルネットワーク「ボルツマンマシン」に関する論文を発表した。ボルツマンマシンは「回帰型ニューラルネットワーク(Recurrent Neural Network)」というタイプのモデルで、システム内で処理が循環する構造となる。回帰処理(繰り返し処理)によりノード間の重み(Weights)が更新され、最適なポイントに到達する。ボルツマンマシンのコンセプトはモデルのエネルギーを最小にすることが目的で、統計力学の手法「ボルツマン分布(Boltzmann Distribution)」を導入した。これがモデルの名称となっている。

ボルツマンマシンのネットワーク構造

ボルツマンマシンは人工ニューラルネットワークで、ニューロン(ノード、上の写真の○)が結合された構成となる。結合の強さは重み(Weight、上の写真Wij)で決定され、ノードがオン・オフの状態を取る。また、ノードは「Visible Nodes」(白丸)と「Hidden Nodes」(黒丸)で構成される。前者は外部とつながり、データを読み込み、また、データを読み出すことができる。後者は外部との接続は無く、ネットワーク内で処理を実行し、様々な特性を学習する。

リストリクティッドボルツマンマシン(RBM)とは

ボルツマンマシンは入力データの含まれている特性を把握する機能を持つが、その構造は回帰型ニューラルネットワークで、ノードごとに逐次処理をするため、演算に時間がかかる。RBMはボルツマンマシンを軽量化した構造で、効率的に処理ができるモデルとなる。RBMは各層におけるノード間の接続は無い軽量な構造で、層ごとに処理を実行し計算量を減らし、効率的なモデルとなる。RBMも同様に、モデルのエネルギーを最小にするポイントを算出することがゴールとなる。その際に、ヒントン教授は効率的なアルゴリズム「Contrastive Divergence」を考案し、モデルが収束するスピードを高速化した。

RBMの使い方

RBMは入力データに含まれている特性を抽出するために使われる。RBMはEコマースサイトで商品やサービスを推奨するシステムのコア技術として利用されてきた。例えば、映画推奨システムでは、消費者が見た映画をRBMに入力すると、その消費者が興味を示す映画を提示する(下の写真)。モデルの下段がVisible Nodesで、ここに映画のタイトルなどを入力し、上段がHidden Nodesで、入力されたデータに内在する特性を把握する。具体的には、消費者の映画に関する嗜好(ジャンルや俳優の好み)を把握する。これをベースに推奨する映画を出力する(Visible Nodesの白丸の部分)。

出典: GM Harshvardhan et al.

フィードフォワードネットワーク

回帰型ニューラルネットワークの研究と並列して、フィードフォワードネットワーク(Feedforward Networks、下の写真)の研究が進行した。これは、ネットワーク処理のフローが前進するタイプで、「Input Layer」が入力データを受け取り、これを「Hidden Layers」で処理し、その結果を「Output Layer」が出力する形式となる。現在のニューラルネットワークの多くがこの方式を取っている。ヒントン教授は他の研究者と共同で、ネットワークを教育する手法「バックプロパゲーション(Backpropagation)」を考案し、これが深層学習(Deep Learning)の開発を加速させる革新技術となった。バックプロパゲーションは、ニューラルネットワークの出力と正解を比較し、その誤差(Loss)を最小にする手法で、各層のノードのパラメータ(重みとバイアス)を最適化する。

出典: Nobel Foundation

畳み込みニューラルネットワーク

1980年代にはフィードフォワードネットワークである「畳み込みニューラルネットワーク(Convolutional Neural Networks(CNN))」が開発された。Yann LeCunが「LeNet-5」というアーキテクチャを発表し、これが現在のCNNの基礎技術となった。2012年には、ヒントン教授のチームが「AlexNet」を発表しCNNの性能が大きく進化した。AlexNetはイメージの中のオブジェクトの種類を特定する技術で、ニューラルネットワークが高い精度をマークした(下の写真、写真に写っているリンゴを判定したケース)。イメージ判定コンペティション「ImageNet Large Scale Visual Recognition Challenge」で、AlexNetにより判定精度が劇的に向上し、AI業界に衝撃をもたらした。この研究はヒントン教授と門下のAlex KrizhevskyとIlya Sutskeverで行われた。Sutskeverはその後、OpenAIの設立に加わりAIの安全技術を研究していたが、現在は、スタートアップ企業を創設し、ここで研究を継続している。

出典: Pornntiwa Pawara et al.

DNNresearch

この研究成果を切っ掛けに、ヒントン教授らはAI研究の新興企業「DNNresearch」を設立した。ここで、「Deep Neural Networks (DNNs)」と呼ばれる深層学習の分野で、ネットワークの階層を多段にしたモデルの研究を進めた。2013年、GoogleがDNNresearchを買収し、ヒントン教授らはGoogle配下で研究を続け、この成果がGoogle Photoなどで使われた。

AIの危険性に関する啓もう活動

2023年、ヒントン教授はGoogleを去り、自由な立場でAIの危険性を発信し、社会に向かって警鐘を鳴らしている。ヒントン教授はノーベル賞の記者会見で、AIが社会に多大な利益をもたらすと同時に、重大なリスクを抱えていると述べた(下の写真)。短期的には、AIによりフェイクイメージが拡散し、選挙において有権者が誘導される危険性を指摘。長期的にはAIが人類を滅亡させるリスクについて見解を提示した。人間よりインテリジェントなAIが開発されたとき、人類はこのスーパーインテリジェンスをどう制御するのか、重大な懸念を示した。このモデルはあと5年から20年のレンジで開発されるとの予測を示し、AI開発において安全技術の研究が極めて重要であると述べた。企業は開発費用の30%をこの研究に費やし、安全なモデルの開発を進めるべきで、政府はAIを安全に運用するための規制法を整備する必要があるとの見解を示した。これからは第一線の研究から実を引き、AIの安全性に関する活動に専念するとしている。

出典: University of Toronto

国際連合はAIガバナンスに関する報告書を公開、OECD(AI基本指針)やG7(広島AIプロセス)など多国間協定を統括する役割を担う、地球温暖化とAIを最重要テーマと位置付ける

国際連合(United Nations)は先月、AIに関する包括的な報告書「Governing AI for Humanity」を公開した。これはAIガバナンスをグローバルに展開するための意見書で、AIのリスクを認識し、世界の人々が利益を享受できるフレームワークを提言している。報告書は地球温暖化対策をモデルに、AIのリスクを査定するためのパネルの設置を推奨する。国際社会ではOECD(AI基本指針)やG7(広島AIプロセス)など、AIを安全に管理するための枠組みの構築が進んでいるが、国際連合がこれらの活動を統括しグローバルなフレームワークを制定する。

出典: United Nations

報告書:Governing AI for Humanity

国際連合のAIに関する委員会「UN High-Level Advisory Body on Artificial Intelligence」は、先月、AIに関する報告書「Governing AI for Humanity」(下の写真)を公開した。この報告書は国際社会を対象にしたもので、AIを倫理的に運用するための基礎データを示し、国際連合が取るべき政策を推奨している。報告書は、AIは大きな可能性を秘めているとの見解を示すと同時に、AIの危険性やそれを運用するインフラが未整備であることを理解する必要があるとしている。

AIガバナンスに関する政策推奨

報告書は、国際連合に対して世界各国がAIガバナンスを推進することを求め、また、各国政府に対してはAI開発において国民の人権を守ることを求めている。この目標を実現するために七つの提言をしている:

  • AIに関するパネル:AIを科学的に解析し共通の理解を持つための委員会。気候変動に関する政府間パネル(IPCC)のAI版を制定。
  • AIガバナンスに関する議論:国際連合はAIガバナンスに関する議論を進めるためのプラットフォームを設置
  • AI技術標準化:AI技術の標準化をグローバルに推進するための枠組み制定
  • AI開発インフラ:世界の研究者がAI開発を展開できるためのネットワーク整備
  • AI基金:世界でAIインフラを整備するための基金を創設
  • AI教育データ:AI教育データにおける技術標準化やプライバシーの保護
  • AIオフィス:これらのタスクを実行するために国際連合内にAIオフィスを設置
出典: United Nations

政策推奨の骨子

この提言は三つの骨子から構成され、1)共通の理解の構築:世界で展開されるAIに関し共通の理解を持つ、2)共通の立場の構築:世界で進むAIガバナンス整備を統括し共通の指針を整備、3)世界が共通してメリットを享受:世界でAI分断(AI Divide)が顕著になりこのギャップを埋めるためAIシステムを整備、となる。

AIリスクに関する認識

報告書は世界のAI開発や運用を解析し、それを共通の理解としてまとめ、政策を推奨するための基礎資料としている。これらはグローバルなAIガバナンスに関する最新情報で、国際社会におけるAIに関する基礎データとなる。その一つがAIリスクに関する認識で、国際社会における懸念事項を理解できる(下のグラフ)。最大のリスクは偽情報で情報操作によりメディアへの信頼性が低下するとしている。また、AI兵器が使われることや、AI技術が少数の企業や個人に支配されていることに、強い懸念を示している。

出典: United Nations

AIにより不利益となるグループ

AIの技術開発が進む中、報告書はAIの危険性が増大するグループや地域をリストしている(下の写真)。これによると、社会的に排除されているグループ(Marginalized Communities、人種などにより差別されている集団)やグローバルサウス(Global South、アフリカやアジアや南アメリカなど)などがAIにより不利益を被るとしている。特に、グローバルサウスは、これらの国々でAIを利用するインフラが未整備であり、インターネット・デバイドのように、AIデバイドが顕著になっているとしている。

出典: United Nations

世界各地のAIガバナンス展開状況

世界の主要国では安全なAIを開発運用するためのフレームワークの設立が進んでいる(下の写真)。国や地域がAIガバナンスのためのガイドラインや運用指針を制定しており、責任あるAI開発と運用を進めている。その主なものは:

  • OECD AI Principles:経済協力開発機構が制定したAI基本指針
  • G20 AI Principles:G20が制定したAI基本指針
  • UNESCO Recommendations on the Ethics of AI: ユネスコが生成したAI倫理指針
  • G7 Hiroshima Process International Guiding Principles:G7の広島AIプロセス国際指針、高度な AI システムを開発する組織向けの国際指針
  • General Assembly:国際連合のAIに関する総会決議
  • Bletchley Declaration:英国政府のAIセーフティ宣言
  • EU AI Act:欧州政府のAI規制法

世界の主要国はAIガバナンスに関する取り組みを進めており、国際連合はこれらを総括し、共通の基盤を設立する役割を担う。

出典: United Nations

AI技術標準化を推進

世界各国のAIガバナンスを推進する母体はOECDやG20やG7やUNESCOなどの国際団体や国際会議となる。この他に、EUや英国政府など地域連合や国がAI規制法の整備を進めている。また、AI技術の標準化についてはISO、IEEE、ITUなどが重要な役割を占める。また、米国においてはAI Safety InstituteやNISTなどがAIの安全技術を開発する役割を担う。様々な団体がAI技術の標準化を進めており、報告書は国際連合が情報を共有するプラットフォームを構築し、技術標準化を推進すべきとしている。

出典: United Nations

AIガバナンスが喫緊の課題

国際連合の主要テーマは気候変動と破壊的技術(Disruptive Technology)で、特にAIのガバナンスを喫緊の課題としている。先進国を中心にAIを安全に運用するための法令やガイドラインの整備が進んでいるが、国際連合はこれらを総括し、グローバルなフレームワークを制定することを最終目的とする。国際連合は人権高等弁務官事務所(Office of the United Nations High Commissioner for Human Rights)など人権の保護と啓蒙を推進する組織を持ち、これらのインフラをAIガバナンスに適用する。国際連合は気候変動対策で重要な役割を担っているが、この成果を参考に、AIガバナンスにこの手法を適用し主導的な役割を担う。

カリフォルニア州のフロンティアモデル規制法は不成立となる、その一方で州知事は18の規制法に署名しAI規制が本格的に始まる

カリフォルニア州議会は大規模AI「フロンティアモデル」を規制する法案を可決したが、州知事のGavin Newsomは署名を拒否し、この法案は成立しなかった。この法案は企業にフロンティアモデルを出荷する前に安全試験を義務付けるもので、連邦政府に先駆けて規制法を制定できるか注目されていた。一方、州知事は18のAI規制法に署名し、カリフォルニア州は危険なAIから市民を守る政策を明らかにした。このAI規制政策は全米だけでなく日本など海外へのインパクトが大きく、“カリフォルニア効果”を注視していく必要がある。

出典: California State Parks 

フロンティアモデル規制法は成立せず

カリフォルニア州議会はAI規制法案「SB 1047: Safe and Secure Innovation for Frontier Artificial Intelligence Models Act.」を可決したが、州知事であるGavin Newsom(下の写真)は拒否権を行使し、この法令は成立しなかった。この法令は開発企業に大規模AIフロンティアモデルの安全試験を義務付けるもので、開発企業やベンチャーキャピタルなどが反対していた。一方で、大学研究者や人権団体などは署名を求め、賛成派と反対派が厳しく対峙していた。

AI規制法案の概要

この法案は高度な機能を持つフロンティアモデルを安全に開発運用することを目標としている。対象となるモデルは開発費用が1億ドルを超える大型システムとなる。法案はフロンティアモデルが社会に重大な危害を及ぼすことを事前に抑止することを目的としている。重大な危害は「Critical Harm」として、生物兵器の生成や5億ドルを超える大規模な被害と定義している。

出典: Governor Gavin Newsom 

AI規制法案の骨子

この法案は三つの骨子から構成され、開発企業にモデルの安全試験の実施や、緊急時の安全対策を義務付けている。

  • 安全試験:製品を出荷する前に安全試験を実施し、モデルが社会に重大な危害を及ぼさないことを確認
  • 開発企業を訴訟する権利:司法長官はモデルが重大な危害を与えた場合は開発企業を訴訟できる
  • 稼働停止スイッチ:モデルが危険な挙動をするのを防ぐため、システムの稼働を停止させるスイッチを実装

AI規制に賛成する意見

カリフォルニア州のAI規制法に関しては賛成と反対の意見が厳しく対峙し議論が続いている。AI規制に賛同するのはアカデミアを中心とする研究者グループで、高度なAIモデルの開発は慎重に進めるべきとのポジションを取る。その代表がトロント大学のGeoffrey Hinton教授で、「40年前にAIアルゴリズムの教育を実施した時に、ChatGPTが生まれるとは想像もできなかった」と述べ、AIの技術進化は極めて速く、大規模モデルが甚大な被害をもたらす可能性は大きいとしている。

AI規制に反対する意見

一方で、AI規制に反対する意見はIT業界から政界まで幅広く、こちらが世論の中心を占めている。規制法に反対する理由は、フロンティアモデルを過度に規制することでAI開発のイノベーションが阻害されるため。また、規制法は生成AIの基礎技術を制限するのではなく、それを応用するアプリケーションごとの規制が必要であるとの声が高い。具体的には、生成AIを使った監視システムなど、適用分野ごとに規制すべきとの意見が多い。

次のステップ

州知事は声明を出し署名を拒否した理由を解説した(下の写真)。それによると、AIの危険性はモデルの規模ではなくその使い方で決めるべきで、フロンティアモデルだけの規制では安全とは言えないと述べている。更に、AIモデルの危険性を科学的に評価し、法令でどのようなガードレールを設けるかを議論する必要であるとして、評価委員会の設立を明らかにした。スタンフォード大学教授Fei-Fei Liなどが委員となりAI規制のガイドラインを制定する。

出典: Office of the Governor

成立したAI規制法

フロンティアモデル規制法は成立しなかったが、州知事は18のAI規制法に署名し、カリフォルニア州でAI規制が本格的に始まった。これらの法令はディープフェイクを禁止するなど、AIの危険性から住民を守ることを指針とする。成立したAI規制法の主なものは:

  • 児童ポルノの禁止:従来の法令を拡張し、生成AIで児童ポルノのイメージを生成することを禁止
  • ディープフェイクの禁止:亡くなった人物の音声やイメージでのデジタル複製を制作し配布することを禁止。往年の映画俳優のディープフェイクの生成を禁止
  • 教育データの公開:開発企業にAIモデルの教育で使用したデータを公開することを義務付ける
  • ディープフェイクの制限:選挙キャンペーンで政治家に関するディープフェイクをソーシャルメディアに掲載することを制限
  • ラベリング:政治キャンペーンにおいてAIで生成した音声やイメージやビデオなどにはその旨を添付
出典: Adobe Stocks, Generated with AI

ブリュッセル効果 vs カリフォルニア効果

EUはAIを規制する法令「AI Act」を成立させ運用を開始した。この法令はEU域内だけでなく、他国に波及する効果があるとして、EU本部所在地の名称を冠して「ブリュッセル効果(Brussel Effects)」と呼ばれる。同様に、カリフォルニア州のAI規制法はこれが雛形となり、全米の州や他の国々でこれをモデルに独自の法令を制定する流れに繋がる。これは「カリフォルニア効果(California Effects)」と呼ばれ、自動車の排ガス規制が示すように、日本を含む世界のメーカーの開発戦略に大きな影響を及ぼした。連邦政府に代わりカリフォルニア州がAI政策を主導しており、米国だけでなく日本など第三国にどのような影響を及ぼすのか注視していく必要がある。