月別アーカイブ: 2025年6月

MetaはAI開発が難航し最大の危機に直面、スーパーインテリジェンス研究所を設立し立て直しを図る、著名研究者を競合他社から引き抜き推論機能を強化

Metaは会社創業以来の危機に直面している。MetaはAI最新モデル「Llama 4」を投入したが、ベンチマーク性能は先頭集団に及ばず、AI開発での出遅れが顕著になった。ハイエンドモデル「Behemoth」は出荷時期が延伸され、開発が不調であることを裏付けている。CEOのMark ZuckerbergはAI開発体制を一新し「スーパーインテリジェンス研究所」を創設した。スタートアップ企業Scale AIを買収し、また、OpenAIなどから著名研究者を引き抜き、研究体制を大幅に強化した。(下の写真、スーパーインテリジェンス研究所のイメージ)

出典: Generated with Google Imagen 4

MetaのAI開発が難航

MetaはAIモデル「Llama」を開発し、そのコードや重みをオープンソースとして公開してきた。初代のLlamaからLlama 3はトップレベルの性能を示し、開発コミュニティで幅広く使われている。しかし、Metaは今年4月にLlama 4をリリースしたが(下の写真)、ミッドレンジモデル「Maverick」はOpenAIやGoogleの対抗モデルと比較して、推論機能が大きく劣ることが明らかになった。また、実社会でのベンチマーク「LM-Arena」では30位の成績で、トップグループからの出遅れが顕著となった。

出典: Meta

スーパーインテリジェンス研究所

Zuckerbergはこれを重大な危機と認識し、MetaのAI開発体制を一新し、「スーパーインテリジェンス研究所(Superintelligence Labs)」を設立した。研究所のミッションは次世代モデルの開発で、人間の知能を凌駕するスーパーインテリジェンスを開発する。MetaはAIスタートアップ企業「Scale AI」に143億ドル投資し、創業者のAlex Wangを研究所の代表に任命した。また、OpenAIやGoogleから著名研究者を引き抜き、AI開発のドリームチームを結成した。

出典: Generated with Google Imagen 4

スーパーインテリジェンス研究体制

スーパーインテリジェンス研究所はCEO直属組織で、所長のWang(下の写真右側)がZuckerberg(左側)に直接レポートする。現在、コアの研究者の数は50名と言われるが、Zuckerbergは業界の著名研究者をアグレッシブに採用している。MetaはOpenAIの主要研究者にオファーを出し、採用ボーナスとして1億ドルを提示したとされる。この他に、Google、Perplexity、Safe Superintelligenceの研究者の採用を試みている。

出典: Stocktwis / CNBC

採用された研究者のプロフィール

実際に採用された研究者の経歴を見ると、Metaの次世代モデル開発の戦略を読み取ることができる。MetaのAI開発が難航している理由は推論モデルで、このノウハウを持つ研究者を重点的に採用している。更に、MetaはスマートグラスをAIで強化することでインテリジェントなウエアラブルを製品化する。このため、ビジョン・トランスフォーマなどマルチモダルの研究者を数多く採用した。また、所長のWangはデータやインフラの第一人者で、推論モデル開発で必須となる教育データ生成のノウハウを持つ。

スーパーインテリジェンス研究所の開発テーマ

スーパーインテリジェンス研究所のミッションは人間の知能を凌駕するAIモデルを開発することにある。技術的には、上述の推論機能を強化するため、強化学習(Reinforcement Learning)や思考の連鎖(Chain of Thought)が研究テーマとなる。また、AIが実社会とインタラクションするために「世界モデル」を開発する。世界モデルとはAIシステムが3D物理社会のコンテキストを理解し、次の挙動を予測する能力となる。スーパーインテリジェンスに加えロボティックにおける重要な基礎技術となる。また、人間の知能を上回るAIシステムを安全に制御するために、セーフティ技術の開発が必須となる。(下の写真、Metaの本社キャンパス)

出典: Meta

オープンソース戦略の見直し

MetaはAI開発におけるオープンソース戦略の見直しを進めている。MetaはLlamaシリーズをオープンソースとして公開することで、コミュニティのAI開発を支え社会に多大な貢献をしている。一方、高度なAIをオープンソースとして開発することで、マイナスの面が顕著になってきた。特に、推論モデルにおいてこれをオープンソースとして公開すると、AIの思考プロセスが開示され、開発競争において不利になる。また、スーパーインテリジェンスなど高度なモデルを公開することは敵対国や攻撃団体に悪用されるリスクが高まり国家安全保障の重大な問題となる。Metaはスーパーインテリジェンスにおけるオープンソース戦略の見直しを進めている。

LeCunとの関係

MetaのAI開発が低迷した理由の一つにYann LeCun(下の写真)のインテリジェンス開発に関するビジョンが影響している。LeCunはMetaのAI研究所「Fundamental AI Research (FAIR)」(現在は「Meta AI」)の所長としてAI開発をリードしてきた。LeCunは人間の知能に匹敵するAGI開発に懐疑的なポジションを取り、いまの言語モデルを拡張してもAGIには到達できないと考える。Metaが独自の手法を探索している間に、OpenAIやGoogleは言語モデルや推論モデルを拡張しAGIを目指し大きな成果を上げている。ZuckerbergはLeCunの手法と一定の距離を置き、スーパーインテリジェンス研究所を設立し次世代モデルの開発にリソースを投入する。

出典: Meta

臨戦態勢で先端技術を開発

AI先進モデルの開発ではアルゴリズム、データセンタ、データがコア技術となり、研究開発の成否を握る。アルゴリズムにおいては、先端モデルの開発に従事している研究者は20人程度と言われている。これら最先端研究者がOpenAIやGoogleで次世代モデルを生み出している。MetaがOpenAIから数多く研究者を引き抜いたが、OpenAIもGoogleから研究者をスカウトした。Zuckerbergは参謀本部(War Room)を創設し、ここで臨戦態勢でAI開発を推進する。Metaはトップ集団に追い付くことができるのか、スーパーインテリジェンスの開発が注目される。(下の写真、MetaデータセンタのNvidia GPUクラスター)

出典: Nvidia

AIが爆発的に進化する「シンギュラリティ」の圏内に突入!!人類が滅びるか繫栄するかの岐路に直面

OpenAIのCEOであるSam Altmanは、AIが爆発的に進化する「シンギュラリティ(Singularity)」の圏内に突入したとの見解を示した。シンギュラリティは知能の爆発とも呼ばれ、AIが暴走し、人類が滅びるストーリーとして描かれる。しかし、Altmanは、AIを人間の価値に沿ったモデルにし、また、AIを一部の人物や企業や国家が独占することなく、人々がこの恩恵を公平に享受できれば、豊かな社会を実現できるとのビジョンを示した。世界は後戻りできないポイントを超え、人類が滅びるか繫栄するかの岐路に直面している。

出典: Generated with OpenAI o3

シンギュラリティとは

「シンギュラリティ(Singularity)」とは技術的な特異点を示す用語となる。AIにおける特異点とは、技術が指数関数的に成長し、人間の知能を大幅に凌駕するポイントを指す。シンギュラリティは二種類あり、「ハード・シンギュラリティ」と「ソフト・シンギュラリティ」に分類される。前者は、AIが爆発的に進化し、人間が制御することができず、AIが暴走する社会となる。これは「知能の爆発」とも呼ばれ、SF映画で描かれるシナリオとなる。一方、後者は、AIの技術は急速に進化するが、人間がAIを制御する技術を開発することで、AIの恩恵を享受できる社会が生まれるとのシナリオとなる(下の写真、ソフト・シンギュラリティのイメージ)。

出典: Generated with OpenAI o3

穏やかなシンギュラリティ

OpenAIのCEOであるSam AltmanはAIに関するビジョンを発表し、社会は既にソフト・シンギュラリティの圏内に入っているとの見解を示した。Altmanはソフト・シンギュラリティを「穏やかなシンギュラリティ(Gentle Singularity)」と表現し、AIの恩恵を享受できる豊かな社会が生まれると予測する。世界はイベントホライゾン(Event Horizon)を超え、もう後戻りはできず、シンギュラリティに向かって進んでいる。(イベントホライゾンとはブラックホールで使われる用語で、重力が大きく光でも脱出することができない領域を指す。)

シンギュラリティのロードマップ

Altmanはシンギュラリティに向かったロードマップを示し、AIが生み出す新しい社会観を解説した。

  • 2025年:エージェントが人間に代わり仕事やタスクを実行する。例えば、エージェントがエンジニアに代わりプログラムを開発する。
  • 2026年:AIが科学技術において新たな論理を生み出す。現行のAIは人間が生み出した論理をベースに新技術を生み出すが、新世代のAIは人間に代わり新しい論理を生み出す。
  • 2027年:ロボティックスが急進しロボットがロボットを製造する(下の写真)。ハードウェア開発でもシンギュラリティが生まれる。
  • 2030年代:知能とエネルギーが無尽蔵な社会となる。AIのコストが劇的に下がり、電気料金程度となり、知能を豊富に使うことができる。
出典: Generated with OpenAI o3

科学技術の進化が加速

既にAIにより大きな恩恵を享受しているが、これからAIにより重大な発見が相次ぎ、社会が大きく変化する。今はAIを医療技術に応用し、メディカルイメージングをAIで解析することで、がんを高精度に検知する。これからは、AIで医療技術の開発期間が劇的に短縮され、がん治療薬が登場する。また、現在はAIがエンジニアに代わりプログラミングを実行するが、これからはAIがソフトウェア全体を開発し、AIが会社を設立しそれを運用する時代となる。

社会へのインパクト

高度なAIにより技術が急進し、社会に多大な恩恵をもたらすが、社会構造は大きく変わる。AIが人間に代わり仕事をするため、殆どの職がAIで置き換わることになる。一部の職種がAIに奪われるのではなく、殆どの職が無くなる。しかし、シンギュラリティ時代には新たな職種が生まれ、仕事に関する価値観が大きく変わる。社会や経済の変化は急で、人々はこれを理解し、新しい環境に適用できるまでには時間を要す。産業革命など、過去の事例が示すように、人々は長い年月を経て新し環境に適用していく。

新時代のAIに求めらること

AIが社会に恩恵をもたらすことを担保するためには、技術面と政策面で新たなメカニズムが求められる。技術面では「アラインメント(Alignment)」で、AIが人間の価値に沿って稼働するための技術の開発が求められる。高度なインテリジェンスを制御する技法の研究開発が重要なテーマとなる。政策面では、AIの恩恵が一部の人物や会社や国家に集中することなく、人々がこれを享受するための政策や枠組みが必要となる。

2035年の社会像

高度なインテリジェンスにより社会が大きく変わり、Altmanは2035年までに達成される技術を予測している。一つは、高エネルギー物理学の急速な進展で、核融合発電が現実のものとなる。これにより、クリーンなエネルギーが大量に生成され、地球温暖化の抑止に大きく貢献する。また、インプラントにより人間の頭脳がエンハンスされる。インプラントでは脳にチップを埋め込むが、物性物理学のブレークスルーで、大量のデータを送受信できるようになる。(下の写真、2030年代には人類が他の惑星への移住を始める。)

出典: Generated with OpenAI o3

シンギュラリティの議論

Altmanは、AIが爆発的に進化するシンギュラリティに突入したが、AIが人類を滅ぼすのではなく、知識とエネルギーが無尽蔵な豊かな社会が生み出されるとの見方を示した。市場では様々な意見があり、Altmanの予測はOpenAIのマーケティング戦略であるとの反応も少なくない。また、懐疑派は現行の技法を拡張してもシンギュラリティに到達できないとの考え方を示している。「穏やかなシンギュラリティ」を生み出せるのか、市場で議論が白熱している。

トランプ氏はサイバーセキュリティを強化する大統領令に署名、規制や義務を軽減するが基礎技術はバイデン政権の政策を踏襲、関税政策で混乱するなかIT政策では論理的な指針を示す

トランプ大統領令は6月6日、サイバーセキュリティを強化するための政策に関する大統領令(Executive Order)に署名した。大統領令はバイデン政権の大統領令を修正するかたちで制作され、過度な規制や義務を軽減し、サイバーセキュリティの基礎技術の開発を強化する。最大の脅威は中国とし、サイバー攻撃を防御するため技術開発に関するアクションを規定した。トランプ政権はサイバーセキュリティ政策についてバイデン政権の方針を大きく変更すると述べているが、実際に大統領令を読むと、技術開発については多くの部分を継承している。

出典: Getty Images

サイバーセキュリティ大統領令の概要

トランプ政権の大統領令(EO 13800)はオバマ政権の大統領令(EO 13694)とバイデン政権の大統領令(EO 14144)を修正する構造となっている。大統領令はサイバー攻撃への耐性を高めるために各省庁が取るべきタスクを定めている。対象は、ソフトウェア、AI、量子技術で、安全技術の開発を強化するためのアクション項目と開発スケジュールが規定された。特に、NIST(National Institute of Standards and Technology、国立標準技術研究所)が重要な役割を担い、このプロジェクトの中心組織となる。

出典: The White House

最大の脅威は中国

大統領令は中国(People’s Republic of China)が米国にとって最大の脅威になるとの認識を示している。中国が米国政府や民間企業に対し継続してサイバー攻撃を展開しており、最大の脅威となり、ロシア、イラン、北朝鮮がこれに続く。この情勢の下で、大統領令は国家のデジタルインフラやサービスを守るためのサイバーセキュリティ技術の開発を規定する。対象は、ソフトウェア、量子技術、AIシステムなどで、これらの分野で安全技術を強化するための具体的なアクションを定めている。

ソフトウェア

大統領令はセキュアなソフトウェアを開発するためのフレームワークの開発を規定している。このフレームワークは「Secure Software Development Framework」と呼ばれ、バイデン政権下で商務省配下のNISTが開発したもので、大統領令はこれをアップデートして機能を強化することを求めている。大統領令はアクションのスケジュールを定めており、フレームワークの初版を2025年12月1日にリリースし、その後120日以内に最終版を公開することを規定している。

量子技術

大統領令は量子コンピュータの登場に備え、暗号化技術を強化することを求めている。量子技術の開発が進み、量子コンピュータにより現在利用している暗号技術が破られることになる。この量子コンピュータは「cryptanalytically relevant quantum computer (CRQC)」と呼ばれ、暗号技術を強化する必要がある。既に、米国政府は量子コンピュータに耐性のある暗号技術「post-quantum cryptography (PQC)」の開発を進めている。大統領令はこの研究開発を強化し、安全技術の適用を推進するためのアクションを定めた。具体的には、2025年12月1日までにCISA(Cybersecurity and Infrastructure Security Agency、サイバーセキュリティ・社会基盤安全保障庁)を中心にPQCの製品カタログをアップデートし、連邦政府内でPQCの導入を推進する。

出典: NIST

AIシステム

大統領令はAIシステムのセキュリティを強化することを規定している。AIシステムはサイバー攻撃を防御するツールとなり、同時に、AIシステムがサイバー攻撃への耐性が低いという課題を抱えており、この二つの側面を強化するためのアクションを規定している。AIシステムはサイバー攻撃を検知するための有効な防衛技術で、大統領令は連邦政府の研究成果を大学研究機関に公開することを求めている。また、AIシステムはサイバー攻撃に対する脆弱性を含んでおり、この情報を省庁内で共有することでサイバーセキュリティを強化することを規定している。NISTなどが中心となり、これらのアクションを2025年11月1日までに完了する。

過度な負担の軽減

大統領令は同時に、サイバーセキュリティに関する過度な規制条項を削除した。その事例がデジタルIDで、バイデン政権はこの技術の開発普及を規定した。トランプ政権の大統領令はこの規定を削除し、このプロジェクトを停止した。デジタルIDとは電子証明システムで、運転免許証など証明書をデジタル化するプログラムとなる。具体的には、州政府がデジタルな運転免許証を発行するプログラムを支援し、また、連邦省庁で電子証明システムを開発運用することを規定した。トランプ政権は、このプログラムは過度な負荷をかけるとしてこの条項を停止した。

出典: The White House

サイバーセキュリティの組織体制

大統領令の実行にあたってはNIST(国立標準技術研究所)やCISA(サイバーセキュリティ・社会基盤安全保障庁)が中心組織となり他の省庁をリードしていく。NISTは商務省配下の組織で、計量学、標準規格、産業技術の育成などの任務を担ってる。NISTはAIの研究や標準化を進め、信頼されるAIが経済安全保障に寄与し、国民の生活を豊かにするとのポジションを取る。CISAは国土安全保障省配下の組織で、連邦政府のサイバーセキュリティの司令塔となり、サイバー攻撃を防衛する役割を担う。

セキュリティ政策ではバイデン政権の指針を踏襲

トランプ大統領は強硬な関税政策を打ち出し、世界経済に大きな影響を与え、投資やビジネスにおける不確実性が異常に高まっている。これに対しセキュリティ政策は、規制緩和を大きな柱とし、技術開発を推進する構造となっている。バイデン政権の政策から大きく転換するとしているが、公表された大統領を読むと、修正はマイナーチェンジに留まり、基本指針を継承している。IT政策では理にかなった政策を打ち出し、過去の研究成果が継承されている。

トランプ政権はAI規制からAI安全技術標準化と開発支援に方向転換、「AI Safety Institute」を「Center for AI Standards and Innovation」に改名しAI製品の安全検査を企業の判断に委ねる

トランプ政権は6月3日、米国のAI政策を大幅に見直し、規制強化から安全技術の標準化とイノベーションを促進する方向に大転換した。商務省のハワード・ラトニック(Howard Lutnick)長官が明らかにした。現行の「AI Safety Institute(AI安全管理室)」の名称を「Center for AI Standards and Innovation(AI標準化・技術推進室)」に改名した。新組織は、AIモデルの安全を検証するベンチマーク試験などの安全技術の開発を重点的に進める。AI開発企業は安全基準に準拠することを自主的に検証する。トランプ政権は米国がAI技術で世界をリードする政策を展開しているが、今回の組織改正はこのビジョンを反映したものとなる。

出典: US Commerce Department

組織名称の変更

国務長官はAI安全政策を大きく見直し、組織名称を「AI Safety Institute(AISI、AI安全管理室)」から「Center for AI Standards and Innovation(CAISI、AI標準化・技術推進室)」に改名することを明らかにした。AISIはバイデン政権で設立された組織で、AIを安全に開発運用するための技術開発をミッションとした。これに対し、CAISIは、AISIで開発された安全技術を継承し、これにAI開発を推進するミッションを追加する。

安全技術の標準化

国務長官はAI規制を義務化することはAI開発の妨げになるとして、企業が自主的に規定に準拠すべきとの立場を取る(下の写真)。国務長官は「安全規格への準拠を義務付けることが技術革新の妨げとなっており、イノベーションの障害とならない標準技術を制定する」と述べた(先頭の写真)。このためにCAISIはAI安全技術の標準化を進め、企業はこれを使ってAI製品の安全性を検証する。具体的には、安全試験の実施は企業の判断に委ね、また、試験結果を非公開とすることで、企業の知的財産権を保護する。

出典: Reuters

安全なAIを開発するためのアクション

CAISIは連邦政府における民間企業との窓口となり、安全技術や新技術を共同で開発する。この目的に沿って、CAISIが実施すべきアクションプランが規定された:

  • 安全ガイドラインの制定:AIシステムのセキュリティを評価する技法とそれを改良する手法について、ガイドラインやベストプラクティスを制定する。民間企業と共同で安全検査技術を開発しこれを標準化する。
  • 民間企業との契約:民間企業がAI製品の安全性を検査することに関する契約を制定する。安全検査の実行は企業の判断に委ね、また、検査結果は非公開とする。AI製品のリスクをサイバーセキュリティやバイオセキュリティなど、国家安全に関連するものと位置付ける。
  • AIシステムの評価報告書:米国や敵対国のAIシステムの能力に関する報告書を作成する。国際社会におけるAI開発競争の状況をモニターしこれを報告する。
  • セキュリティの脆弱性の検知:敵対国のAIシステムによる攻撃に対する脆弱性や情報操作などの攻撃を把握する。AIを悪用したサイバー攻撃の検知を強化する。
  • 連邦省庁との連携:国防省など連邦省庁と連携しAIシステムの評価技法を開発し、この技法に従って評価を実行する。
  • 他国のAI規制との整合性:他国のAI規制から米国のテクノロジーを守るための代表部門となる。米国のAI技術が国際標準となるよう研究開発を進める。

安全検査を自主規制

バイデン政権ではAI開発企業が製品を出荷する前に安全検査を実施することを義務付けたが、トランプ政権はこの規制を緩和し、安全検査の実施を企業の判断に任せるとしている。また、安全検査の方式を官民共同で開発し、これを安全性評価のための標準技術とする。標準技術の制定では、企業や関係団体から意見をヒアリングし、これらを反映した内容とする。

出典: US Commerce Department

EUとの整合性

EUは既にAIを運用するための規制法「EU AI Act」を運用しており、欧州で事業を展開するためには、この規制に準拠することが求められる。これに対し商務長官は、アメリカの技術を外国政府が不当に規制することから防衛すると述べており、CAISIがこの任務を担うことになる。CAISIがアメリカ政府を代表する組織として、EUなどとAI規制に関する運用条件を調整することになる。

AI規制を緩和すると言うが。。。

CAISIによりAI製品を評価するためのベンチマークなど安全評価技術が開発され、この規定がAI企業に大きな影響を与える。安全評価テストの実施は企業の判断に委ねるとしているが、大手企業はこれに準拠する公算が強い。EU AI ActはAIモデルを運用する企業に厳しい規定を課しており、米欧間のAI規制の互換性の調整が大きな課題となる。一方、トランプ政権はAIの規制緩和を推進すると表明しているが、商務省の発表内容を読むと、バイデン政権の指針と大きな差異は認められない。ただ、AI規制の詳細はこれから制定されるので、実際にどのような枠組みとなるのか詳細をフォローしていく必要がある。