カテゴリー別アーカイブ: 人工知能

欧州連合と米国企業がAI規制で衝突、欧州AI法令「EU AI Act」改訂版にOpenAIとGoogleが反発

欧州連合(European Union、EU)は域内のAIを規制する法令「AI Act」の成立を目指し最終調整を続けている。EUはChatGPTなど生成AIを「ハイリスクなAI」として追加し、運用に厳しい条件を課すことを明らかにした。これに対しOpenAIは強く反発し、規制について合意できない場合は欧州市場から撤退すると表明。一方、Googleは独自の規制方式を提案し、欧州連合とAI規制方針について合意を模索している。欧州連合と米国企業の間で、AI規制案に関し、考え方の相違が表面化した。

出典: Reuters

AI Actの改版

「AI Act (Artificial Intelligence Act)」とは欧州員会(European Commission、EC)によるAI規制法で、EU内でAIを安全に運用するためのフレームワークとなる。現在、法案の最終調整が行われており、年内に最終案を取りまとめ、2025年からの施行を目指す。この過程で、「ファウンデーションモデル(Foundation Models)」と呼ばれるAIが追加された。ファウンデーションモデルとは大規模な言語モデルで、OpenAIの「ChatGPT」やGoogleの「Bard」など、生成AIが含まれる。これにより、ChatGPTなどが「ハイリスクなAI」と区分され、その運用に厳しい条件が課されることとなった。

ChatGPTなどに課される厳しい条件

改版されたAI Actは、生成AIを開発するOpenAIやGoogleに対し、製品の運用や開発で厳しい条件を科す(下のグラフィックス)。その条件は運用と開発の二つプロセスに適用される:

  • 運用における条件:AIが使われていることを示し、AIが有害なコンテンツを生成しないこと。AIが第三者企業の製品に組み込まれて利用される場合も、開発企業にこの義務が課される。
  • 開発における条件:AIのアルゴリズムの教育データに関し、著作物を使用した場合は、その概要を開示する。
出典: European Parliament

OpenAIはEUから撤退

これに対しOpenAIは強く反発した。CEOのSam Altmanは、AI Actの規制条件に沿うよう最大限の努力をするが、これが実現できなければ欧州市場から撤退すると述べた。AI Actに準拠できない場合は制裁金が課され、実質的に、EU域内で事業を展開できなくなる。Altmanは、後日、この発言を撤回し、欧州議会と協力していくことを確認したが(下の写真)、欧州連合と米国企業の亀裂が露呈した。

出典: Sam Altman

GoogleはAI協定を提案

欧州メディアによると、AlphabetのCEOのSundar Pichai(下の写真)はブリュッセルを訪問し、欧州連合幹部と会談した。Pichaiは、改版されたAI Actの規制条項に対し、独自の方式を示し、規制方針で現実的な合意点を模索している。PichaiはAI協定「AI Pact」を提案し、AI Actが施行されるまでの期間を対象に、AIの運用条件を提示した。AI Pactの内容は明らかになっていないが、AI Actが施行されるまでの期間に、AI開発を進める必要があり、協定に基づいてこれを実行するとしている。

出典: Google

米国ハイテク企業は反発

改訂版AI Actによる生成AIの規制について、米国のハイテク企業は反発を強めている。高度なAIを開発するSalesforceは、AI Actの規制指針は実情にそぐわないと指摘。生成AIは誕生したばかりの技術で、そのメカニズムが明らかになっていない。このため、生成AIを安全に開発運用するための指針や標準技術が確立されていない。準拠すべき基準が無い状態で、AI Actは何を根拠にChatGPTを規制するのか、疑問が呈されている。

米国と欧州の対立の根は深い

ハイテク企業をめぐる規制政策に関し、米国と欧州の間で衝突を繰り返してきた。直近の事例は「EU一般データ保護規則(General Data Protection Regulation、GDPR)」で、欧州員会はMetaなどにプライバシー保護で厳しい規制を課している。現在は、生成AIを中心に、OpenAIやGoogleに厳しい条件を科そうとしている。米国側は、EUは企業のイノベーションを阻害すると主張する。一方、EUは、世界に先駆けて、欧州が消費者の権利を守り、ソーシャルメディアやAIを安全に運用する手本を示していると主張する。

現実的な解を模索する

同時に、米国産業界で、現実的な解決策を探求する動きが始まった。その一つが、AIを段階的に規制する考え方で、市場で議論が広がっている。生成AIに関しては、動作原理が十分理解されておらず、安全な使い方に関し、共通の合意が形成されていない。そのため、これからの研究開発で、危険性を明らかにし、安全に運用するための技術標準化が求められる。これら安全技術の進展に応じ、運用するためのガイドラインを確立し、AI規制法を整備するのが現実的との意見が広がっている。米国市場はEUがAI Actに段階的な規制を組み込むことを期待している。

Microsoftは生成AIに関する最新技術を発表、アシスタント「Copilot」を全製品に搭載、提携企業はアプリ呼び出し機能「Plugins」で独自の生成AIサービスを提供

Microsoftは今週、開発者会議「Microsoft Build」を開催し、生成AIの最新技術を発表した。Microsoftは「ChatGPT」を基本ソフトに実装した。これは「Windows Copilot」と呼ばれ、言葉の指示に従って基本ソフトを操作する。また、パートナー企業はアプリ呼び出し機能「Plugins」を使って、独自の生成AIサービスを提供する。更に、Microsoftはクラウドで生成AIを開発する環境「Azure AI Studio」を提供する。今年の開発者会議は生成AIがメインテーマで、最新の開発成果が公開された。

出典: Microsoft

ChatGPTに検索機能を統合

Microsoftは検索サービス「Bing」にChatGPTを統合したが、今回はこれとは逆に、ChatGPTを使うときのインターフェイスとして「Bing」を提供する。対話しながらChatGPTを使うが、その時に、これをBingのインターフェイスで実行する(下の写真)。これにより、ChatGPTは最新データで教育され、最新の話題に対応する。また、ChatGPTが回答した根拠となるデータを示す機能(Grounding)が取り入れられた。

出典: Microsoft

Windows Copilot

Microsoftは基本ソフト「Windows 11」にChatGPTを搭載し、会話を通してソフトウェアの機能を利用できるようになった。これは「Windows Copilot」と呼ばれ、基本ソフトのアシスタントとなる。初期画面の「Copilot」アイコンで起動し、画面右側のペインで会話する(下の写真)。

出典: Microsoft

「Copilot」は「副操縦士」を意味し、利用者の言葉での指示に従ってタスクを実行する。例えば、画面右側のペインで、「仕事をしやすいようにシステムを最適化して」と入力すると、Copilotはこの要請に応え、「Focus Mode」や「Dark Mode」のオプションを示す。「Dark Mode」を選択すると、画面が黒色のモードになり(下の写真)、仕事に集中できる環境となる。

出典: Microsoft

ChatGPTのプラグイン

MicrosoftはChatGPTの「Plugins(プラグイン)」を拡張し、OpenAIとMicrosoft間で互換性を取る仕組みを導入した。Pluginsとは別のソフトウェアを呼び出す仕組みで、OpenAIは既に「ChatGPT Plugins」を発表している。ChatGPTのアプリストアでPluginsをダウンロードして利用する。例えば、「サンフランシスコでレストランを予約して」と指示すると(下の写真左側)、「OpenTable」というPluginが起動し、このタスクを実行する(右側)。OpenTableはChatGPTでこのタスクを実行し、プラグインでこれを呼び出す仕組みとなる。

出典: Microsoft

Bing向けのプラグイン

これに対し、Microsoftは検索エンジン向けのプラグイン「Plugins for Bing」を発表しており、開発者会議ではそのデモが実施された(下の写真)。Bingの初期画面には「Plugins」のリストが表示され、利用するプラグインを選択する。

出典: Microsoft

このプラグインを使うと、検索エンジンで高度なタスクを実行することができる。例えば、不動産の検索で「Zillow」というプラグインを使うと、指示した条件で物件を探すことができる。例えば、「シカゴで、徒歩でレストランに行け、100万ドル以下」と指定すると、この条件に適合した物件をリストする(下の写真)。この背後で、ChatGPTを組み込んだZillowのAIモデルが稼働している。

出典: Microsoft

生成AI開発クラウド

Microsoftは企業が最新技術を使ってAIモデルを生成するためのクラウドサービス「Azure AI Studio」を発表した。AI Studioは大規模言語モデルを使って、企業が独自の生成AIを構築するための環境となる(下の写真)。OpenAIの他に多種類のオープンソース言語モデルが提供され、これらを企業が保有しているデータとリンクし、ビジネスに特化した生成AIを開発する。

出典: Microsoft

責任あるAI開発

AI Studioは企業が責任あるAIを開発するためのツールを提供する。これは「Azure AI Safety」と呼ばれ、開発したAIモデルが倫理的に稼働することを検証するためのツールとなる。この中で、コンテンツを検証する機能「AI Content Safety」は、AIモデルが生成する文章が暴力や自害やヘイトに関する言葉を含んでいないかどうかを検証する(下の写真)。

出典: Microsoft

エコシステムの拡大

Microsoftは開発者会議で生成AIに関するエコシステムを拡大している姿勢をアピールした。プラグイン「Plugins」は別のアプリを呼び出す仕組みで、検索エンジン「Bing」から他社が開発した生成AIサービスを起動する。また、企業は生成AIクラウド「Azure AI Studio」で、ChatGPTなどを統合した生成AIを手軽に開発できる。Microsoftは、ChatGPTはApple iPhoneに次ぐイノベーションと位置付け、製品開発を加速している。

米国連邦議会は生成AIに関する公聴会を開催、OpenAIはAIの販売にライセンス制度を導入することを提案

米国連邦議会上院は生成AIに関する公聴会を開催し、OpenAIのSam Altmanらが安全対策に関し意見を述べた。その中で、Altmanは高度なAIを規制する必要があると述べ、連邦政府と協力する姿勢を明らかにした。更に、企業は安全規格に従ってAIを開発し、AIの販売や運用にライセンス制度を導入することを提言した。医薬品の開発では臨床試験により安全性が確認されるように、AIも審査をクリアしたものだけが販売を認められる制度の検討が始まった。

出典: U.S. SenatePrivacy, Technology, & the Law

上院議会公聴会の概要

連邦議会上院の法務委員会「U.S. Senate Committee on the Judiciary Subcommittee」は、生成AIに関する公聴会を開催し、OpenAIのAltmanの他に、IBMの倫理AI責任者Christina Montgomeryとニューヨーク大学名誉教授Gary Marcusが証言した。公聴会は高度なAIをどう規制するかについて議論された。三者の発言の要旨は:

  • Sam Altman:OpenAIの安全対策を説明。政府が安全なAIに関する基準を設け、企業はこれに従ってAIを開発・運用することを提言。(下の写真)
  • Christina Montgomery:IBMは企業向けに、AIの危険性を低減し、安全なモデルを開発していることを説明。
  • Gary Marcus:高度なAIは重大な危険性を内包し、社会に深刻な危険性を及ぼしていることを事例をあげて説明。
出典: U.S. Senate Committee on the JudiciarySubcommittee on Privacy, Technology, & the Law

OpenAIの安全対策

AltmanはChatGPTやGPT-4が使われている事例を示し、生成AIは社会に多大な恩恵をもたらしていることを説明した。また、OpenAIはAIの危険性を低減するために、様々な技法を開発し、モデルを出荷する前に、社内だけでなく、社外の専門企業に委託し、安全性の検証作業を実施した経緯を説明。GPT-4のケースでは、アルゴリズムの教育が終わった後、六ヶ月にわたり、多角的に安全性の試験を実施した。

プライバシー侵害

多くの議員は、ChatGPTは個人のプライバシーを侵害していると重大な懸念を示した。ChatGPTの開発では、ウェブサイトのデータがスクレ―ピングされ、個人情報や著作物がアルゴリズム教育で使われていることを指摘。また、ChatGPTとの対話で入力された会話データがアルゴリズム教育で使われることにも懸念が示された。

プライバシー保護の対策と提案

これに対し、Altmanは個人のプライバシー保護を重要課題と位置付け、様々な対策を講じていることを説明した。更に、議員の指摘に対し、新たな制度を導入する考えを示した:

  • ターゲッティング広告:ChatGPTは個人データから消費者のプロフィールを構築し、これをターゲッティング広告などで使うことはない
  • 対話データ:ChatGPTは利用者との会話データを使ってアルゴリズムを教育していることは事実。しかし、利用者は会話データの利用を禁止するオプションがあり、これを選択すると対話データは破棄される。
  • ウェブ上のデータ:ウェブ上に公開されている個人情報や著作物がアルゴリズムの教育で使われた場合は、これらのデータの削除を要求できる。

アーティストや作家などが、著作物でアルゴリズムを教育することの禁止を求めているが、Altmanは、個人や著作者がこれを申請する制度の導入を計画していると説明した。

出典: U.S. Senate Committee on the JudiciarySubcommittee on Privacy, Technology, & the Law

AI規制の必要性

現在、米国にはAIを規制する法律は無く、AltmanはAIを安心して利用するためには政府による規制が必要であるとの考え方を示した。そのために、OpenAIは政府を支援する用意があり、共同で規制案を開発することを申し出た。一方、規制を導入する際は、安全性を担保することと、AIの普及を推進するという、相反する要件の間で最適なバランスを取る必要があるとしている。

ライセンス制度を提案

Altmanは、高度なAIは認可された製品だけが販売を許される、ライセンス制度の導入を提案した。そのため、政府はAIの安全基準を定め、企業はこれに準拠して製品を開発する。開発したAIは第三者機関により検査され、合格した製品だけが販売を許可される。この制度は三つのプロセスから成り:

  • ライセンス:AIの安全基準を制定し、AIはこれに準拠することが求められる。基準に準拠したAIだけが販売のライセンスを得る。
  • 認証試験:このため、出荷前に、AIが安全基準に準拠しているかどうかを試験する。社内だけでなく、第三者機関がこれを実施し、AIの安全性を検証する。
  • 国際規格:AIの安全基準について、国際社会と協調し、統一した基準を制定する。

ソーシャルメディアの轍を踏まない

通常、連邦議会の公聴会は、議員が企業を詰問する形式で進むが、今回は異例で、親和的な雰囲気の中で意見が交わされた。議員はOpenAIなどにアドバイスを求め、企業側は政府がAIの規制を導入することを支援するポジションを明らかにした。この背後には、ソーシャルメディアの規制に失敗し、米国社会が混乱している実情がある。この失敗を繰り返さないため、生成AIでは政府と企業が協力し、高度なAIを安全に活用しようという共通の目的が生まれた。

出典: U.S. Senate Committee on the JudiciarySubcommittee on Privacy, Technology, & the Law

国会議員の意識の高さ

ハイテクに関する公聴会では、議員は技術を十分に理解できず、議論が上滑りするケースが少なくない。しかし、生成AIの公聴会では、多くの議員が既にChatGPTを使っており、AIに関する理解が大きく進んでいる。公聴会で司会を務めたブルメンソール議員(上の写真)は、開会の辞をChatGPTで制作し、それをボイスAIで本人の音声に変換し、AIが公聴会の趣旨を説明した。国会議員は、ChatGPTの威力と危険性を把握し、AI規制の必要性を実感しており、AI規制が急ピッチで導入される機運となった。

Googleは開発者会議で大規模言語モデル「PaLM 2」を発表、生成AIの開発戦略が明らかになる

Googleは開発者会議「Google I/O」を開催し、大規模言語モデルの最新版「PaLM 2」を公表した。これは生成AIで、チャットボット「Bard」のエンジンとして使われる。また、Googleはクラウド経由でPaLM 2を公開し、企業はAPIでこれにアクセスし、独自の生成AIを開発することができる。更に、Googleは次世代の生成AIとして「Gemini」を開発していることを明らかにし、AIで市場をリードする姿勢をアピールした。

出典: Google

最新の言語モデル「PaLM 2」

Googleは大規模言語モデルの最新版「PaLM 2」を発表した(上の写真)。PaLM 2は「PaLM」をベースとし、これを改良したもので、機能が大きく進化し、実行時の処理速度が向上した。具体的には、PaLM 2は三つの分野で際立った特性を示す:

  • 多言語に対応:PaLM 2は100を超える言語を処理する機能を持つ。言語を理解する技能は人間のマスターレベルに到達。
  • 推論機能が大きく向上:PaLM 2はテキストだけでなく、科学論文や数学などで教育され、その結果、論理的な思考、常識に基づく推論、数学を解く技量が大幅に向上(下のグラフィックス)。
  • プログラミング技術の進化:PaLM 2はオープンソースのコードで教育され、Pythonなどでプログラムする機能を習得。この他に、PrologやFortranなど多言語に対応する。
出典: Google

ファウンデーションモデル

PaLM 2はAIのベースとなる「ファウンデーションモデル(Foundation Models)」として位置付けられ、ファウンデーションモデルとはAIの基本形で、様々なアプリケーションで利用される。例えば、PaLM 2はチャットボット「Bard」のエンジンとして使われ、高度な対話機能を提供する。PaLM 2はサイズ別に4つのモデルから構成される(下のグラフィックス)。これらはモデルの規模により分類され、小さいモデルから「Gecko」、「Otter」、「Bison 」、「Unicorn」と命名されている。最小モデルの「Gecko」はスマホで稼働するAIで、PaLM 2を限られた資源で実行できる。

出典: Google

PaLM 2を搭載した製品

PaLM 2は既に、Googleの製品に組み込まれている。その数は25に上り、Googleの事業の骨格を担っている。PaLM 2が実装されている主な製品は:

  • チャットボット「Bard」:PaLM 2を搭載したことでBardが多言語に対応する。日本語や韓国語向けのサービスを開始。また、プログラミング機能が格段に向上した。
  • ワークプレイス「Workplace」:GmailやGoogle DocsなどのビジネスツールにPaLM 2が実装され、文章を生成する機能などが向上。
  • ヘルスケア「Med-PaLM 2」:医療向けに最適化されたPaLM 2で、エキスパート医師のレベルの医療スキルを持つ。
  • セキュリティ「Sec-PaLM」:セキュリティ向けに最適化されたPaLM 2で、サイバー攻撃の危険性などを検知するために使われる。
  • クラウド「Vertex AI」:Googleは試験的にPaLMをクラウド経由で提供してきたが、PaLM 2を含めこれを一般に公開。PaLM 2のAPIで独自の生成AIを開発できる。
出典: Google

Bardの最新機能

チャットボット「Bard」のエンジンがPaLMからPaLM 2にアップグレードされ、その機能が大幅に向上した。Bardは対話だけでなくプログラミングの機能があり、エンジニアの人気ツールとなっている。PaLM 2を実装することで、プログラミング機能が拡充され、また、多言語に対応できるようになった。開発しているコード入力すると、Bardがそれをデバッグする。その際に、コードにコメントを挿入する機能が登場した。(下の写真、デバッグしたコードに韓国語でコメントを挿入した事例)。

出典: Google

医療向け言語モデル「Med-PaLM 2」

PaLM 2はファウンデーションモデルで、アプリケーションの基盤を構成するが、これを特定の業務ごとに最適化すると高度な機能を発揮する。GoogleはPaLM 2を医療データで再教育し、医療に特化したAIモデル「Med-PaLM 2」を開発した、Med-PaLM 2はエクスパート医師に匹敵するスキルを持ち、患者の治療で利用される。また、Med-PaLM 2はメディカルイメージングを解析する機能があり、問題点を特定するだけでなく、その理由を説明する機能がある。(下の写真、レントゲン写真を解析し、骨折の個所を特定するだけでなく、人間の医師のようにその判定理由を説明する。システムは開発中で写真はそのイメージ。)

出典: Google

クラウド「PaLM API」

PaLM 2は、Googleが製品に組み込むだけでなく、一般ユーザ向けにクラウドで提供される。GoogleはPaLMを試験的にクラウドで提供してきたが、今週から、最新モデルPaLM 2を含め、一般利用者に公開した。これらはAIクラウド「Vertex AI」の新機能として実装され、PaLM APIでモデルを利用する(下の写真)。企業はこのAPIを使ってPaLM 2の機能にアクセスする。また、企業はPaLM 2を独自のデータで教育し、業務に最適なモデルを生成できる。

出典: Google

次世代モデル「Gemini」

OpenAIがChatGPTを公開し米国社会でAIの普及が劇的に進んだ。MicrosoftはGPT-4を組み込んだ製品を相次いでリリースし、GoogleとのAI開発競争が始まった。GoogleはBardやPaLMを開発してきたが、その成果は一般には公開されなかった。しかし、Googleは開発者会議で、最新のAIを製品に統合し、その機能を一般にリリースする戦略を明らかにした。更に、PaLM 2の次のモデルとして「Gemini」を開発していることを公表し(下の写真)、GoogleはAI市場でトップの座を維持する姿勢を鮮明にした。

出典: Google

米国連邦議会はAI規制法に向けた準備を開始、ホワイトハウスは信頼できるAIを開発するための研究所を設立

米国政府は危険なAIから国民を守る政策を相次いで発表した。連邦議会はAIを安全に運用するための構想を明らかにした。国民の権利を守るため、開発企業にAIシステムの内部を公開し、責任ある運用を求める。また、ホワイトハウスは、信頼できるAIの開発に向けた政策を発表した。全米に7つの研究所を設立し、AIの安全性を含む先進技法を開発する。更に、ハリス副大統領は、GoogleやMicrosoftなどのCEOと会談し、AIの安全性を強化することを要請した(下の写真)。

出典: Vice President Kamala Harris @ Twitter

米国政府の動き

米国政府がAI規制に向けて動き始めたが、その背景にはChatGPTなど生成AIの急速な普及がある。アメリカ国民はAIの利便性だけでなく、その脅威を実感し、政府に安全対策を求めている。また、中国政府がAI規制を導入したが、これが警鐘となり、米国もAIの倫理的な運用を実行し、テクノロジーにおける指導的立場を維持すべきとの世論が優勢になってきた。

連邦議会のAI規制法案

これに応えるかたちで、上院院内総務であるチャック・シューマー(Chuck Schumer、下の写真)はAI規制のフレームワークを発表した。このフレームワークは四つのガードレールで構成され、AI開発企業に責任ある運用を求めている。具体的には、AI開発企業は製品を出荷する前に、独立機関でAIの検査を受け、その結果を一般に公開することを求めている。四つのガードレールはAIの透明性を求めるもので、その概要は:

  • Who:誰がAIのアルゴリズムを教育したのかを開示する。誰がAIの利用者であるかを明らかにする。
  • Where:教育で使ったデータはどこから来たのかその出典を開示する。
  • How:アルゴリズムがどのように判定を下したのかそのメカニズムを明らかにする。
  • Protect:AIがアメリカ国民の価値に沿っていることを保証する。
出典: U.S. Senate Democrats 

フレームワークの特徴

フレームワークは、AIシステムの内部を明らかにすることが、信頼できるAIに繋がると考える。これにより、AIを誤用することを防ぎ、また、AIが偽情報を生成し、アルゴリズムがバイアスする危険性を低減する。連邦議会はAIの透明性を担保することで、安全で信頼できるAIにつながるとの考え方を取る。この法案骨子は、今後数週間にわたり、大学や民間や政府関係者の意見を聞き、最終調整された後に、議会で審議されることとなる。

バイデン政権のAI政策

今週、ホワイトハウスは信頼できるAIを開発するための新たな政策を発表した。バイデン政権は国民から信頼されるAIを開発するために1億4000万ドルの予算を充て、全米に7つのAI研究所を設立する。このプロジェクトは「National AI Research (NAIR) Institutes」と呼ばれ、アメリカ国立科学財団(National Science Foundation, NSF)が指揮をとる。研究所はニューロサイエンスなど幅広い分野をカバーするが、その中心が信頼できるAI技法の開発となる。

出典: The White House 

AIの安全性の検証

また、ホワイトハウスはAI企業が製品を出荷する前にその安全性を保障することを要請している。これを受け、GoogleやMicrosoftやNvidiaなどは、大規模言語モデルを公開の場で検証し、その安全性を確認するプロジェクトを計画している。これは「Red Teaming」と呼ばれ、利用者がAIモデルを攻撃し、その脆弱性を把握する手法を取る。更に、政策面では、アメリカ合衆国行政管理予算局(Office of Management and Budget)がこの夏までに、連邦政府がAIを安全に利用するためのガイドラインを策定する。

米国政府はAI規制に向かう

ヨーロッパ諸国は域内のAIを統一的に規制する法律「AI Act」の最終調整を進めている。米国はAI規制で後れを取ってきたが、今年に入りAI規制を導入する動きが急進し、バイデン政権や連邦議会が一斉に動き出した。バイデン政権は、昨年は「チップ法」で半導体製造を国産化するための法律を可決した。今年は、AIの研究開発を支援する観点から、国民に信頼されるAIの普及を目指す。連邦議会は、中国政府に対峙し、国家安全保障を担保する観点から、AI規制を進める。