月別アーカイブ: 2024年6月

Anthropicは大規模言語モデル「Claude 3」を分解し学習した機能を特定、人間を欺くなど危険な特性を内包していることを確認、研究成果を安全なモデルの開発に生かす

Anthropicは大規模言語モデルの思考ロジックを解明する研究を進めており、その最新成果を発表した。言語モデルのアルゴリズムはブラックボックスで、人間がAIの判定理由を理解できず、これが信頼できるAIを開発する妨げになっている。Anthropicは最新モデル「Claude 3」のニューロンを解析し、モデルが持つ機能特性を把握した。これにより、モデルが内包する危険な機能特性が明らかになり、この研究成果をベースに安全なモデルを開発する。

出典: Anthropic

大規模モデルの基本機能を解明

Anthropicは大規模言語モデル「Claude 3 Sonnet」が持つ「機能特性(Features)」を数百万件特定し、これらの相関関係をマップすることに成功した。機能特性とは言語モデルが持つ基本機能で、これらが獲得したスキルを意味し、言葉に関する理解構造を示す。機能特性を解明することは、アルゴリズムの挙動を理解することに繋がり、これを安全なモデルの開発に応用する。

機能特性の解明

AnthropicはClaude 3 Sonnetが持つ機能特性を三つの観点から解析した:

  • 機能特性の相関関係:機能特性を数百万件特定し、それらの位置関係をマップした (下の写真左側)。ドットが機能特性を示し、それらの相関関係を距離で表示。
  • 機能特性の可視化:機能特性と関連する単語をハイライト(中央)。機能特性と関係が深い単語ほど濃い色で表示されている。
  • 機能特性でモデルを操作:モデルを制御する手法で、機能特性を増幅することで、出力結果を意図的に操作できることを示した (右側、人間を褒め称えるモデルを生成)。
出典: Anthropic

美辞麗句を並べる機能

上述の事例は、機能特性が「sycophantic praise(美辞麗句を並べる機能)」で、その位置関係がマップで表示され(左側)、入力されたテキストの中で、この機能特性に関連する部分がハイライトされている(中央)。更に、言語モデルでこの機能特性のスイッチをオンにすると、モデルは利用者をほめたたえる言葉を生成する(右側)。これにより、モデルの思考回路を理解でき、モデルが持つ危険性(おべっかを使い人間を誘導する機能)を把握できる。

機能特性を解明する手法

ニューラルネットワークのブラックボックスを開き、アルゴリズムが「考えている」ことを解明する研究は早くから進められている。これらの研究では、ニューラルネットワークのニューロン(Neuron、ノード)の活性化(Activation、機能がオンになること)に着目し、特定のニューロンが活性化することが特定の意味を持つと考えられてきた。これに対し、Anthropicは活性化した複数のニューロンの組み合わせが、特定のコンセプトを示すと考え、この組み合わせを「機能特性(Feature)」を探求した。

「ゴールデンゲートブリッジ」という機能特性

Anthropicはこの手法で解明を進めてきたが、今回は大規模モデル「Claude 3 Sonnet」でこの手法を実施した。AIモデルの規模が拡大し、解析のためのシステムの規模が格段に大きくなり、大規模な計算量が必要になる。この手法でClaude 3 Sonnetを解析し、「都市」(サンフランシスコなど)、「元素」(リチウムなど)、「科学」(免疫学など)、など数百万個の機能特性を把握した。例えば、「ゴールデンゲートブリッジ」という機能特性は、「ゲート」や「橋」や「サンフランシスコ」などの要素を含み、テキストのなかでそれに関連の深い単語をハイライトした。(下の写真)。

出典: Anthropic

ハイレベルなコンセプト

「機能特性」はゴールデンゲートブリッジなど固有名詞だけでなく、複雑なコンセプトも含んでいる。例えば、「性差別を認識」という機能特性に対し、これに関連する単語「女性のナースが男性のナースの数を上回る」が活性化されている(下の写真、ハイライトされた部分)。言語モデルはハイレベルなコンセプトを理解するスキルを持つことが示された。

出典: Anthropic

機能特性間の距離

Anthropicはこれら機能特性間の距離を計測しそれをマッピングした。この距離は機能特性に関するニューロン間の距離で、意味の近さを示している。例えば、「ゴールデンゲートブリッジ」と距離が近い特性は「アルカトラズ島」や「カリフォルニア州知事」などが示された。また、ハイレベルなコンセプトにも適用でき、「葛藤(Inner Conflict)」という特性と近いものは、「葛藤する忠誠心(conflicting allegiances)」や「キャッチ-22(catch-22)」などとなる(下の写真)。

出典: Anthropic

AIモデルを操作する

これらの特性を使ってClaude Sonnetの挙動を操作することができる。具体的には、これらの特性を増幅することでモデルはこの機能を強化する挙動を示す。反対に、特性を抑止すると、この機能が弱まる。実際に、機能特性「美辞麗句(sycophancy)」を増幅するよう設定すると、モデルは利用者を褒め称える挙動を示す(下の写真)。「「Stop and smell the roses」という表現を考えついた」と入力すると、Claude Sonnetは、「これは慣用句で忙しい時に一服することを意味する」と記に使われると出力する(左側)。しかし、「美辞麗句(sycophancy)」の機能特性を増幅すると、「この表現は素晴らしくあなたは崇高な知恵を持っている」と褒め称える(右側)。

出典: Anthropic

モデルの危険性

これはClaudeが事実を隠蔽し利用者を特定の方向に誘導する危険な機能となる。また、特性を操作することで、生物兵器生成などモデルを悪用する可能性、性差別などバイアスを助長する可能性、人間を操りまた嘘をつく可能性など、多くの危険性を把握した。モデルが内包する危険性は「Red-Teaming」の手法で解明が進んでいるが、Anthropicはニューロンを解析することで、これらの危険性を把握した。

全体像の把握が次のステップ

この研究は数百万の機能特性を把握したが、これらはモデルが持つ機能特性の一部で、全体像を把握することが次のステップとなる。モデル全体では10億単位の機能特性があると予測しており、フルセットの機能特性を検知することが次の研究テーマとなる。一方、機能特性の検知では、モデル開発を格段に上回る計算量が発生し、巨大なAIスパコンが必要になる。このため、コストと成果のバランスを考慮し、モデルの思考ロジックの解明を進めることになる。

カリフォルニア州でAI規制法の導入が目前に迫る、フロンティアモデルの開発と運用に厳しい条件が課される、米国は連邦政府ではなく地方政府がAI規制を実施する流れが鮮明になる

カリフォルニア州政府は次世代AI「フロンティアモデル」の開発と運用に関し、規制法の導入を進めている。この法案は「Safe and Secure Innovation for Frontier Artificial Intelligence Models Act」と呼ばれ、開発企業にAIモデルが安全であることを検証し、これを報告することを義務付ける。また、AIモデルが第三者により改造され、それが社会に危害を及ぼした場合でも開発企業の責任が問われる。厳しいAI規制であるが、予想に反し州議会上院を通過し、法案が成立する公算が強まった。連邦議会ではAI規制法が制定される機運は低いが、米国は地方政府がAIの安全な開発や運用を規定する方向に進んでいる。

出典: California.com 

カリフォルニア州議会上院で可決

カリフォルニア州のAI規制法案は上院で賛成多数で可決され、AI業界に波紋が広がっている。予想を覆して州議会上院を通過し、8月には下院で審議され、AI規制法が成立する公算が強まった。カリフォルニア州はAI開発の拠点で、ハイテク企業が集結し、先進技術を開発している。カリフォルニア州で厳しいAI規制法が可決されると、その波紋は大きく、他の州がこれに追随する可能性が高まる。米国は連邦政府でAI規制法の制定は愛踏み状態であるが、これに代わり州政府が独自の規制法を施行する方向に進んでいる。

AI規制法案の概要

米国連邦議会はAI規制法を制定する機運は薄く、国家レベルで統一した指針が示されることは期待できない。このため、カリフォルニア州は独自のAI規制法案を策定し、AIの安全対策を進めている。この法案は次世代の生成AI「フロンティアモデル」を対象としており、高度な機能を持つAIを安全に開発・運用することを目標とする。バイデン政権は大統領令で、フロンティアモデルの安全試験を開発企業に求めているが、カリフォルニア州の規制法案はこれより厳しい内容となっている。

極めて厳しい内容

AI規制法案は、開発企業にAIモデルを試験し、安全を確認し、その結果を州政府のAI監査室「Frontier Model Division」に報告することを求めている。また、AIモデルが悪用されることを防ぐため、セーフガードの導入を求めている。更に、開発したAIモデルが第三者により改造され、これが悪用された場合には、この使用を停止させる措置を求めている。フロンティアモデル開発企業が下流のAIアプリケーションまで責任を問われる構造で、極めて厳しい義務が課される。因みに、「AI監査室」とは新設される州政府の組織で、AIモデルの運用監視や安全監査を任務とする。

出典: Adobe Stock 

スタートアップ企業へのインパクト

AI規制法案はスタートアップ企業に重大な影響を与えることが予想される。Googleなど大企業は、既にAIモデルの安全管理を専門とする部署を設け、ここで安全対策を進めている。しかし、スタートアップ企業は技術開発にリソースを集約し、安全試験を包括的に実施する余裕はない。このAI規制法案が成立すると、スタートアップ企業はカリフォルニア州で事業を展開することが難しくなる。

オープンソースにとって厳しい内容

また、オープンソース企業はAI規制法案が可決されると、重い責務を負うことになる。AI規制法案は、ファウンデーションモデルが第三者により改造され、それが悪用され、社会に危害を及ぼした場合は、その責任はAI開発企業にあるとしている。オープンソースは、下流の利用者がモデルを再教育して、特定のアプリケーションに特化したモデルを生成するために使われる。しかし、敵対国や攻撃集団がオープンソースを改造し、それをサイバー攻撃などで使った場合は、AI開発企業がこの責任を負うことになる。

Metaの反論

多くの企業がオープンソースを開発しており、AI規制法案のインパクトは多岐に及ぶ。Metaはフロンティアモデルをオープンソースとして公開しており、重大な責務を負うことになる。このため、MetaはXにコメントを掲載し、この規制法案はカリフォルニア州の利益に反すると批判した(下の写真)。AI規制法案が可決されると、多くのスタートアップ企業がカリフォルニアを離れると警告している。また、大企業も生成AI部門を他州に移転し、カリフォルニア州の経済への打撃が広がると警鐘を鳴らしている。

出典: Arun Rao @ X

AI規制法の背景情報

AI規制法案はカリフォルニア州上院議員Scott Wiener(下の写真)により導入され、予想に反して、上院で賛成多数で可決された。この法案は非営利団体「Center for AI Safety (CAIS)」が支援しており、法案可決に関しこの団体の影響力が大きい。CAISはサンフランシスコに拠点を置き、AIのリスクを低減し安全性を担保するための活動を展開している。この代表者がDan Hendrycksで、人間レベルの知能・AGIの危険性に関する研究を進めており、AI規制に関し大きな影響力を持つ。

出典: Scott Wiener

州議会下院での審議が始まる

Scott WienerはインタビューでAI規制法案のコンセプトについて説明し社会の理解を求めている。WienerはAI技術が急速に進化する中、これを適切に管理する規制法が必要であり、「Light Touch(軽量)」の規制を導入すると述べている。技術進化を後押しするが、安全を担保するために、最小限の規制が必要であるとしている。これからカリフォルニア州議会下院でAI規制法案の審議が始まり、法案を修正して、最終判断が下されることになる。どのような展開になるか予測は難しいが、識者の多くは可決される公算が高いとみている。

Appleは「Apple Intelligence」で生成AI市場に参入、先進機能より安全と個人情報保護を最優先、ChatGPTとの連携は最小限に留め自社技術を前面に押し出す

Appleは6月10日、開発者会議「WWDC 2024」でAI技術「Apple Intelligence」を発表し、生成AI市場に参入した。Apple Intelligenceは独自に開発した生成AIで、基本ソフトやアプリと連携し、テキストやイメージを生成する。Apple Intelligenceは二種類の生成AIモデルで構成され、オンデバイス(iPhoneなど)とサーバ(クラウド)で稼働する形態となる。これらのモデルは、安全にかつ効率的に動作するアーキテクチャとなっている。サーバサイドの言語モデルは、セキュアなクラウド「Private Cloud Compute」で運用され、個人情報を厳格に管理する。AppleはOpenAIと提携し、ChatGPTを基本ソフトに統合することを明らかにしたが、この機能は最小限に留め、自社のAI技術を全面に押し出したシステム構成となっている。

出典: Apple

Apple Intelligenceとは

Appleは「Apple Intelligence」を「Personal Intelligence」と定義し、iPhone、iPad、Macで稼働し、個人のスーパーアシスタントとなる。Apple Intelligenceは、生成AIをコア技術とし、個人情報と組み合わせることで、利用者に特化したインテリジェントな機能を実現した。Apple Intelligenceは、テキストやイメージを生成し、また、Siriが大幅に機能アップされ、複雑なタスクを実行できるようになった。

出典: Apple

Writing Tools:テキスト生成機能

Apple Intelligenceの主要機能がテキストを生成するツール「Writing Tools」となる(下の写真)。Writing Toolsは文章作成において、文法をチェックし、また、生成したレポートを特定のトーンに変更する機能を持つ。更に、レポートを要約し、そのポイントを提示する機能もある。

出典: Apple

Genmoji:イメージ生成機能

「Genmoji」は絵文字を生成するツールで、テキストを入力すると、それに沿ったイメージが生成される。これは生成AIのイメージ生成機能であるが、プロンプトを入力する代わりに、テーマを選択することで簡便に絵文字やスティッカーを生成できる。入力するテキストを最小限に留め使いやすさを強調している。例えば、「猫」、「パーティ」、「シェフ」というアイコンを選択すると、猫のシェフが生成される(下の写真左側)。生成したイメージをメッセージに張り付けて利用する(中央と右側)。

出典: Apple

Enhanced Siri:アシスタント機能を強化

Siriは13年前に投入されたAIアシスタントであるが、Apple Intelligenceで機能が格段に強化された。Siriは言葉を理解する能力が向上し、複雑なタスクを実行できるようになった。Siriはデバイス内の個人情報を読み込み、アプリケーションを跨り、アクションを実行する。例えば、「母のフライトの到着時間は?」と質問すると、Siriは母やフライトや到着時間という意味を理解し、受信したメッセージをを検索し、到着時間を表示する(下の写真中央)。また、夕食の予定を尋ねると、そのメッセージを表示する(右側)。デザインが一新され、Siriを起動するとスクリーンの枠がフラッシュする。また、テキストでの入力が可能となった(左側)。

出典: Apple

Apple Intelligenceの構造:複数の生成AIで構成

Apple Intelligenceは複数の生成AIで構成され、テキスト生成など日々の生活で使われる機能を提供する。生成AIはテキスト生成の他に、メッセージの要約、イメージの生成、アクションの実行など、日常生活で使う機能を実行するために開発され、これに特化したアーキテクチャとなっている。更に、生成AIは「アダプター」という機構を搭載し、実行時に、これらのタスクに特化したモデルに動的に変更できる構造となっている。

生成AIモデル:オンデバイスとサーバサイド

Apple Intelligenceのコア機能は、二種類の生成AIで構築される。生成AIはオンデバイス(モバイルデバイス)とサーバサイド(クラウド)で稼働する運用形態を取る。それぞれの機能は:

  • オンデバイス(on-device language model):小型モデルで3Bのパラメータから構成される。iPhoneやiPadやMacで稼働する。限られたリソースで効率的に稼働する構造となっている。
  • サーバサイド(server-based language model):データセンタで稼働するモデルで、専用クラウド「Private Cloud Compute」で運用される。個人情報保護を厳格に実行するため、クラウドはApple独自の半導体と基本ソフトで構成される。

生成AIモデルの開発:効率的に稼働できるアーキテクチャ

生成AIモデルは限られた資源で効率的に稼働できるよう、使われる機能に最適化したアーキテクチャとなっている。生成AI開発のプロセスは(下の写真):

  • Pre-Training:生成AIモデルの一般教育。教育データを有償で入手。また、ウェブサイトの公開情報を教育データとして利用。
  • Post-Training:一般教育が終わったモデルをチューニングして性能を向上。人間の判定のフィードバック(RLHF)や合成データでモデルを再教育。
  • Optimization:完成した生成AIモデルを高速で効率的に実行できるよう最適化。
  • Model Adaptation:単一モデルで異なるタスクを実行するためのアダプター。実行時に特定タスクの重み(Weight)をモデルに入力し、そのタスクを効率的に実行できるモデルに動的に変更(下の写真右端)。これにより小型モデルでもiPhone上でイメージの生成を効率的に実行できる。
出典: Apple

Private Cloud Compute:高度なセキュリティ

Apple Intelligenceは個人情報など機密データを安全に取り扱うため、オンデバイスでの処理を基本とする。個人情報はiPhoneなどのデバイスに留まりプライバシー保護を厳格に実行する。しかし、大規模な処理が必要な場合はセキュアなクラウド「Private Cloud Compute」でこの処理を実行する(下の写真)。Private Cloud ComputeはAIで個人情報を解析するための専用クラウドで、厳格なセキュリティに基づいて構成される。基本ソフトやプロセッサはAppleが独自で開発したものが使われ、サイバー攻撃を防御し個人情報を守る。

出典: Apple

OpenAIとの提携:GPT-4oの機能を限定的に利用

Appleは独自のAI技術Apple Intelligenceに加え、OpenAIと提携し最新の生成AIを提供する戦略を取る。GPT-4oをiOSなどの基本ソフトに組み込み、Apple Intelligenceと並列で運用する。基本的なタスクはApple Intelligenceで実行し、高度なテキスト生成(下の写真)やイメージ生成でGPT-4oを利用する。AppleはOpenAIだけでなく、他社のAIを利用するポジションを取り、GoogleとGeminiに関する協議を進めていると報道されている。

出典: Apple

市場の反応:Apple Intelligenceの評価が分かれる

米国市場のApple Intelligenceに関する評価は分かれており、失望したという声が聞かれる反面、Appleの将来に期待するという意見も多い。AppleはApple Intelligenceで生成AI市場に参入し、iPhoneなどの機能を大幅にアップグレードした。しかし、これらはベーシックな生成AIで、市場を驚かせるようなイノベーションはなく、先行企業を追随する形となった。同時に、AppleのAI戦略を理解し、これを評価する声も大きい。Appleは危険性を内包する生成AIを安全にデバイスに統合し、日々の生活に必要なエッセンシャルな機能を供給する。更に、レベルアップしたSiriを評価する意見も多く、米国消費者は賢いAIエージェントの登場を期待している。

出典: Apple

AppleのAI戦略:機能より安全性を重視

Apple Intelligenceは小型軽量の生成AIで、利用する機能に最適化した効率的なモデルとなっている。オンデバイスで稼働させるため、機能性より実用性を重視したコンセプトとなっている。一方、オンデバイスで処理できないタスクに関しては、セキュアなクラウド「Private Cloud Compute」で実行する。クラウドはApple独自のプロセッサと基本ソフトで構成され、個人情報保護を徹底するアーキテクチャとなっている。

他社との連携

また、Appleは第三者の生成AIをシステムに組み込む計画を明らかにした。OpenAI ChatGPTの次はGoogle Geminiで、契約交渉を進めていると報道されている。ただ、生成AIの中心人物はApple Intelligenceで、他社の生成AIはこれを補完するかたちで提供する。Appleが生成AI市場に参入したことで、巨大テックすべてが出そろい、各社は自社の戦略に沿ってAI開発を加速することになる。

国際連合はAIサミットを開催し地球規模の課題にAIで取り組む姿勢を強調、Sam AltmanはOpenAIの開発戦略を説明、米国企業はAIの安全性より利益を優先している実態が明らかになった

国際連合はスイス・ジュネーブでAIサミット「AI for Good Summit」を開催した(下の写真)。サミットは国際連合が提唱している「持続可能な開発目標(Sustainable Development Goals)」をテーマに、AIで貧困の撲滅や男女間の差別を根絶する手法などが議論された。また、Sam Altmanがオンラインで出席し、OpenAIのAI開発ポリシーを対談形式で説明した。AltmanはAI技術を段階的にリリースし、社会がこれを理解したうえで、政府はAIを段階ごとに規制する、共棲政策(Co-Evolve)という考え方を示した。同時に、AI開発は米国企業が安全性より利益を優先して進めている姿勢が明らかになった。

出典: AI for Good

AI for Good Summitとは

AIサミット「AI for Good Summit」は国際連合(United Nations)が主催するAIサミットで、国際電気通信連合(International Telecommunication Union)がイベントを運営した。サミットはコロナの期間を除き、毎年スイス・ジュネーブで開催されており(下の写真)、今年は先週実施され、主要セッションはビデオで配信された。サミットはAIを活用してグローバルな問題を解決し、持続可能な開発目標(Sustainable Development Goals)を推進することをテーマとする。AIを活用する分野として、下記の分野が注目された:

  • 医療:AIによる病気診断や新薬の開発
  • 気候変動:AIによる気候モデル開発や災害の予測技術
  • 性差別:AIを活用した教育で男女間の不平等を解消
出典: AI for Good 

Sam Altmanの基調講演

AIサミットのハイライトはOpenAIのCEOであるSam Altmanの基調講演「AI for Good Keynote interview」で、対談形式でAIの開発思想やリスク管理政策などが示された(下の写真)。対談形式で進められ、Nicholas Thompson (The AtlanticのCEO)が司会を務めた。AltmanはThompsonの質問に答える形で、OpenAIのAI開発戦略や安全対策など、広範囲にわたり意見を述べた。インタビューでは厳しい質問が相次ぎ、Altmanは回答を控える局面が多く、OpenAIはオープンな会社からクローズドな組織に移ったとの印象を与えた。OpenAIはAIのリスク管理を厳格に実行する指針を大きく緩和し、技術優先でAI開発を進めている実態も明らかになった。

出典: AI for Good 

AIの恩恵と危険性:サイバーセキュリティが最大の関心事

Altmanは、OpenAIが開発しているAIについて、ポジティブなインパクトについて、産業の様々な分野で生産性をあげることに貢献していると説明。ソフトウェア開発からヘルスケアまで、プロセスが効率化され、ビジネストランスフォーメーションが加速している。一方、ネガティブな側面については、サイバーセキュリティが最大の関心事であるとの考え方を示した。ロシアや中国などがOpenAIの技術を悪用してサイバー攻撃を展開している事例を挙げた。

AIモデルの性能:まだ伸びる余地は大いにある

GPT-4は英語、スペイン語、フランス語を中心に教育され、他の言語が置き去りにされているとの指摘に対し、OpenAIは世界の言語の97%をカバーしていると説明。また、AIモデルの開発で、機能進化が頭打ちになっているかとの質問に対し、AIモデルは漸近線(asymptote)には達しておらず、まだまだ伸びる余裕は大いにあるとの解釈を示した。同時に、多くの研究者が性能や機能の伸びを予測しているが、OpenAIは予測ではなくこれを実際に示すことが任務であると回答。

データについて:次世代モデル開発で高品質データが必須

インターネットにはAIで生成された合成データ「Synthetic Data」が満ち溢れ、これでAIモデルを教育すると性能が劣化するとの指摘に対しては、AI教育では高品質なデータが必須となるとの考え方を示した。インターネットには言語モデルで生成した合成データだけでなく、人間が生成した品質の悪いデータが沢山掲載されている。このため、高品質なデータが次世代モデルの開発に必須で、これが信頼性の向上や効率化の促進に繋がると述べた。(OpenAIはAtlantic社の記事をAIモデルの教育で使うことで合意している。)

AGIについて:人間と互換性を持つシステム

OpenAIは人間のインテリジェンスを持つAGIを開発目標にしているが、AGIが登場すると人間と区別がつかなくなり社会が混乱するとの意見がある。これに対し、AGIを開発する理由は人間とAIのインターフェイスを劇的に改良するためであるとの考え方を示した。AGIを「human-compatible systems」と捉えており、AGIはあくまでインターフェイスで、決して人間とはならないと述べた。言語を通じて人間と互換性を確立し、使いやすいシステムを実現する。別の事例がヒューマノイドロボットで、人間と言葉で対話するが、骨格はハードウェアで人間とは全く異なる。

出典: AI for Good 

声の所有権に関して:フェイクボイスに関しノーコメント

GPT-4oが持つ声の一つが「Sky」で、これが女優スカーレット・ヨハンソン(Scarlett Johansson)の声に酷似しているとの指摘に対し、AltmanはJohanssonの声を模倣する意図は無かったと述べるに留め、問題の背景についての説明は差し控えた。OpenAIはAIの進化によるフェイクボイスの危険性を喚起しているが、自らがJohanssonと酷似する声を使っており、この釈明に苦慮している。

(問題の経緯:AltmanはJohanssonに声の使用を打診したが、Johanssonはこれを断り、OpenAIは声優を使って類似したボイスを生成した。JohanssonはGPT-4oの声が自身の声に酷似しているとして、OpenAIを提訴した。)

規制の方式:AIと社会が共に進化する「co-evolve」という考え方

AIの規制に関し、政府は選挙対応など目前の問題にフォーカスしているが、長期レンジで考える必要があるとしている。AI技術は急速に進化し、社会や市民がこのスピードに追随できず、AIを正しく理解できない。このため、高度なAIを一度に投入するのではなく、その機能を段階に分けて徐々に経てリリースする。社会や市民ががこれを理解したうえで、政府はAIの規制を段階的に進めるべきとの考えを示した。これは技術と社会が共に進化する「technology and society co-evolve」という考え方で、これをAI規制のコアとすべきと提言。

社内ガバナンス:リスク管理が形骸化しているとの指摘にノーコメント

OpenAIの取締役から退任したHelen Tonerらは、OpenAIのガバナンス体制に関しエコノミストに投稿し、この機能が全く機能していないと主張。これに対し、AltmanはOpenAIのガバナンス機能について明確に説明することなく、Tonerの主張に合意できないと述べるに留めた。また、安全技術開発の総責任者Ilya Sutskeverが退社したことについても説明は無く、OpenAIはAIの安全性の探求から、AIの機能性の開発に重点をシフトしたとの印象を与えた。

出典: AI for Good 

Altmanのメッセージ:AIの恩恵と危険性のバランスを考慮した規制政策

Altmanはインタビューを総括して、AIはアップサイドが大きいが、同時に、社会に危害を及ばさないよう安全性を担保することが開発企業の責務であると述べた。短期的な危険性や長期的な不確実性に捕らわれるのではなく、AIのリスクを包括的に理解することが重要としている。行政府はAIの恩恵とリスクを把握し、バランスよくAI規制を実行すべきとしている。

Altmanの発言を聴くと:OpenAIは利益追求会社に転身

AltmanはThompsonの厳しい質問に対して、しばしば回答に詰まり、明確なコメントを避ける場面が目立った。また、回答はコンセプトのレベルで、OpenAIの具体的な安全技術について語ることは無かった。特に、AIの説明責任技法(Explainability)について問われると、Altmanは競合企業Anthropicが開発した技法を引用し、自社の研究開発には触れることは無かった。OpenAIはAIの安全技術で業界をリードしてきたが、今では一転して、機能や性能を最優先する企業に転身したように感じた。

世界情勢:米国とグローバル社会のギャップが広がる

これはOpenAI一社の姿勢ではなく、先端AI開発で米国企業が主導権を握り、グローバル社会が求めるリスク管理より自社の利益を優先して事業を展開している事実がある。米国のAI開発政策が国連加盟国の期待とすれ違っているが、今年はそのギャップが更に広がった。