カテゴリー別アーカイブ: 人工知能

DeepSeekは最新モデル「DeepSeek-V4」を投入、性能でサプライズ無し、モデルを中国製チップで開発、ソフトウェアを劇的に改良、コスパで米国モデルを凌駕する戦略

DeepSeekは最新モデル「DeepSeek-V4」をリリースし、これをオープンソースとして公開した。DeepSeek-V4の性能は米国フロンティアモデルに迫るものの、想定された範囲でサプライズは無かった。しかし、DeepSeek-V4はNvidia GPUではなく、中国製チップ「Huawei Ascend」で開発され、技術独立戦略が着実に進行していることが明らかになった。ソフトウェアではアグレッシブな手法でモデルの効率性を極限まで探求した。コストパフォーマンスで米国モデルを格段に上回り、オープンソースの普及モデルとして、AI市場を席巻する勢いとなった。

出典: DeepSeek

DeepSeek-V4の概要

DeepSeek-V4はオープンソースのフロンティアモデルで米国モデルに迫る高度な性能を持つ。最大の特徴はコンテクスト・ウィンドウ(入力データの容量)が100万トークンとなり、大量のデータを処理できるモデルとなった。モデルは「Mixture of Experts(MoE)」というアーキテクチャを踏襲し、ハイエンドモデル「DeepSeek-V4-Pro」と軽量モデル「DeepSeek-V4-Flash」から構成される(下のテーブル)。DeepSeek-V4-Proのパラメータ数は1.6兆で、規模の面からも米国モデルに匹敵する。

出典: DeepSeek

ベンチマークテスト

DeepSeek-V4の性能がOpenAIやAnthropicやGoogleなど米国モデルに肉薄した(下のグラフ)。ベンチマークテスト性能は米国モデルに迫り、平均するとDeepSeek-V4の性能は米国トップモデルから13%劣る位置付けとなる。ただ、注目すべき点は「SWE Verified」で、コーディング・エージェント性能では米国モデルを完全にキャッチアップした。DeepSeek-V4はAIエージェントのエンジンとして設計されている。

出典: DeepSeek 

中国製AIプロセッサ

DeepSeekはAIプロセッサとしてNvidia GPUとHuawei Ascend NPUを使い、モデルの検証試験を実行した。同時に、HuaweiはDeepSeek-V4はAIプロセッサ「Huawei Ascend 950」シリーズで開発されたと公表した(下の写真)。Ascend 950はインファレンス・プロセッサ「Ascend 950PR」とトレーニング・プロセッサ「Ascend 950DT」から構成される。DeepSeek-V4の実行ではAscend 950PRが使われ、教育プロセスの一部でAscend 950DTが使われた。中国企業はNvidia GPUへの依存の度合いを下げ、国産プロセッサでAIモデルを開発する流れを加速している。

出典: Huawei 

アルゴリズムの改良

DeepSeekはDeepSeek-V4のアーキテクチャやアルゴリズムの改良を極限まで探求し効率的なモデルを構築した。これにより、限られたAIプロセッサで高度な性能を発揮し、メモリの使用量を大幅に削減し、効率的なモデルを生み出した。アルゴリズムの改良では「Compressed Sparse Attention (CSA)」という方式を取る。CSAはトランスフォーマのアテンションのメカニズムを改良し、KVキャッシュの容量を劇的に縮小し、大規模データ(1Mのコンテキスト・ウィンドウ)の計算を効率化した。(下の写真、CSAのメカニズム、過去のデータ全てを参照するのではなく、これを圧縮し、必要な部分だけを参照する。一方、直近のデータは圧縮することなく、そのまま参照する)。

出典: DeepSeek 

AIエージェント

DeepSeek-V4はAIエージェント向けのAIモデルとして開発され、自律的にタスクを実行する機能に特徴がある。DeepSeek-V4はAIエージェント・フレームワークと連携してシステムを構成する。AIエージェント・フレームワークとしては、Claude CodeやOpenClawなどがその代表で、ここに組み込まれAIエージェントのブレインとなる。(下の写真、スーパーマーケットのキャンペーンの企画をAIエージェントで実行した結果)

出典: DeepSeek 

激安価格

DeepSeek-V4は効率を探求したモデルで、DeepSeekはこれを低価格で提供している(下のテーブル、上段)。米国のフロンティアモデル(Claude Opus 4.6)と比べると(下段)、API利用価格は29%から14%で、同じレベルの性能を激安価格で利用できる。DeepSeekは米国フロンティアモデルに匹敵する性能を超低価格で提供し、世界のAI市場でシェアを拡大する戦略を取る。

出典: Generated with Google Gemini 3.1 Pro

AIエージェントのエンジン

DeepSeekやAlibaba QwenはAIエージェントのエンジンとして人気がある。Claude CodeなどAIエージェントのエンジンにClaudeを使うと利用料金が極めて高い。このため、多くのユーザは中国モデルのDeepSeekやQwenをエンジンとして使っている。性能は米国モデルに及ばないが、そこそこの性能を割安価格で利用できるため、水面下で急速に普及している。米国や同盟国のシステムにDeepSeekなどのオープンソースが徐々に浸透しており、安全保障の側面から新たな問題を提起している。

MetaはAIモデル「Muse Spark」を公開、ゼロから開発しアーキテクチャを一新、マルチモダルで他社をキャッチアップしたが推論機能は未完成、将来性が期待できトップ集団を猛追

Metaは新たにAI開発研究所「Meta Superintelligence Labs(MSL)」を設立しフロンティアモデルの開発を進めてきた。研究所の所長はAlexandr Wangで、Zuckerbergが会社を買収するかたちで引き抜いた。Wangは28歳と若手のエリートでMetaのAI開発の総責任者となる。研究所設立後9ヶ月で最初のモデル「Muse Spark」をリリースした。ゼロベースで開発されたモデルで、トップ集団に迫る性能を示しその将来性が期待される。

出典: Generated with OpenAI GPT-5.5 Image

MetaはAI開発体制を一新

Muse SparkはMeta Superintelligence Labs(MSL)が開発した最初のフロンティアモデルでトップ集団に迫る性能に到達した。MetaはAI研究所「Meta Fundamental AI Research (FAIR)」でLlamaシリーズを開発してきたが、モデルの規模を拡大しても性能は上がらず、苦戦を強いられている。Zuckerbergは新組織MSLを設立し、ここでWangが総責任者となり、新モデルの開発を進めてきた(下のイメージ)。Muse Sparkがその最初の成果で、アーキテクチャを一新し、Llamaとは異なるシリーズとして位置付けられる。

出典: Generated with OpenAI GPT-5.5 Image 

MetaのAIモデル体系

MetaはLlamaシリーズを開発しこれをオープンソースとして公開してきた。今では開発の中心はMuse Sparkで、このシリーズがMetaのフラッグシップモデルとなる。新研究所MSLでAI技術の研究開発が進められ、それらは「Avocado」と「Mango」と呼ばれる。Avocadoは高度な推論機能を搭載したフロンティアモデルで、Muse Sparkにその技術が搭載されている。Mangoはマルチメディア(イメージやビデオ)等を生成するモデルで、独立したシリーズとして製品化される。AvocadoとMangoはクローズドソースとなり、Metaは戦略を大きく転換した。

出典: Generated with OpenAI GPT-5.5 Image 

Muse Sparkの性能

Muse Sparkは際立った特徴を示し、マルチモダルのベンチマークテストでは先頭集団に追い付いた。一方で、推論機能やコーディング・エージェントの試験ではまだ出遅れている。MetaはMuse Sparkのベンチマークテスト結果を公表し、これを分野別にグラフ化すると下記の通りとなる。マルチモダルの試験(Multimodalの部分)とヘルスケアの試験(Healthの部分)ではトップ集団をキャッチアップした。一方で、推論機能(Reasoningの部分)とエージェント機能(Agenticの部分)の試験では出遅れている。

出典: Generated with OpenAI GPT-5.5 Image 

データ品質とアルゴリズム

Muse Sparkはベンチマークテスト区分で性能に大きな相違がある。アルゴリズムを教育するデータ品質が性能に大きく影響するマルチモダルやヘルスでは高い性能を示した。WangはScale AIの創業者で、同社はOpenAIなどに高品質な教育データを提供してきた。WangはこのスキルをMuse Sparkに反映し、高品質なモデルを造り上げた。一方で、推論機能やエージェント機能ではアルゴリズムの改良や強化学習のスキルが求められ、Muse Sparkは開発の課題を浮き彫りにした。

個人向けスーパーインテリジェンス

MetaはMuse Sparkで個人向けスーパーインテリジェンス「Personal Superintelligence」を構築するビジョンを明らかにした。マルチモダル推論機能が極めて高く、カメラで捉えたイメージを解析し、実社会を理解し利用者のウェルネスなどに役立てる。Metaはスマートグラス「Orion」を開発しており、カメラが捉えたビデオをMuse Sparkで解析するなどのアプリケーションを開発している。(下の写真、冷蔵庫の中の写真をMuse Sparkが解析した事例、「Cannoli Pastries」は飽和脂肪と糖分が多くコレストロール管理には最悪の食品と評価)

出典: Meta 

マルチモダル

Muse Sparkはネイティブのマルチモダルでビジュアルな情報を幅広いドメインに組み込んでいる。科学・技術・工学・数学(STEM)の分野におけるビジュアル解析を強みとし、オブジェクトの認識や位置情報の把握で威力を発揮する。入力されたイメージを解析しインタラクティブに情報を提供する。(下の写真、エスプレッソマシンの使い方をインタラクティブに説明、左側に手順が示され、そこにカーソルを当てるとマシンの関連部分がハイライトされる)

出典: Meta 

ヘルスケアとウェルネス

Muse Sparkの最重要アプリケーションはヘルスケアとウェルネスで、利用者が健康に生活するための情報を提供する。Metaは1,000人の医師と共同でモデル教育のためのデータを精選し、Muse Sparkは医療関連データについて幅広い知識を習得し、広範囲な質問に回答できる。Muse Sparkはインタラクティブなパネルに健康に関する情報を提供する。(下の写真、ダンスの写真を入力すると、Muse Sparkはエクササイズのポイントを解説、赤丸にカーソルを合わせるとエクササイズを向上させるためのコツを表示)

出典: Meta 

オープンソースからクローズドソースへ

ZuckerbergはScale AIを143億ドルで買収し、天才AI研究者Alexandr Wangを獲得した。その最初の成果がMuse Sparkで、マルチモダルで先頭集団に追い付き、推論機能を強化するためのアルゴリズム開発を進めている。MetaはAI開発戦略を大幅に変更し、Llamaシリーズをオープンソースとして公開してきたが、Muse Spark / AvocadoとMangoのラインはクローズドソースとして運営する。中国企業はオープンソース戦略でエコシステムを拡大する戦略を取り、Metaが戦略を転換したことで、米国企業はクローズドソース戦略という色分けが鮮明となった。

スタンフォード大学は今年の「AI Index Report」を公開、米国と中国の技術差が急速に狭まる、米国市民はAIに脅威を感じAI規制を求める

スタンフォード大学はAIに関する総合報告書「AI Index Report」の最新版を公開した。報告書はAIを追跡調査したもので、豊富なデータに裏付けられ、AI動向を理解するためのバイブルとなる。2025年は、AI技術が脅威的なスピードで進み、同時に、米国と中国の技術ギャップが狭まった。米国市民はAIにネガティブなイメージを持ち、AI規制求めているという実態が明らかになった。

出典: Stanford HAI

AI Index Reportとは

AI報告書「AI Index Report」はスタンフォード大学AI研究部門「Stanford Institute for Human-Centered AI (HAI)」が編纂したもので、AIに関する包括的な情報を集約している。報告書は、AIに関するデータを収集し、それらを蒸留・可視化したもので、最新のAI動向をビジュアルに理解できる。レポートは年次報告書で2025年のAI動向が公開された。

グローバルAI開発競争

AI開発では米国が世界をリードしてるが、中国がこれを激しく追い上げている。主要AIモデルの開発件数は、米国は50で中国は30とそのギャップが縮まっている。一方、欧州のAI開発は停滞気味で、2025年は2つのAIモデルが開発された。

出典: Stanford HAI

米中間の技術格差

AI開発で中国は米国を追い上げ技術格差が縮まった。米国がAI技術で世界をリードしているが、中国は2025年にDeepSeekで急接近した。その後、ギャップが広がるが、2026年は米国と中国の差は僅かで、技術進化は並列状態で進行している。

出典: Stanford HAI

シンセティック・データ

インターネット上にAIで生成したシンセティック・データ(Synthetic Data)が急速に増えている。2022年3月にChatGPTがリリースされ、これを契機にAIで生成したデータがインターネットに掲載され始めた。その勢いは急で、2025年にはシンセティック・データデの割合(51.72%)が人間が生成したデータの割合(48.28%)を超えた。2026年にはシンセティック・データの割合が大きく増えると予測され、コンテンツ生成で人間の役割が低下する。

出典: Stanford HAI

AIプロセッサ

Nvidia GPUがAI開発における主軸プロセッサとして使われているが、Google TPUがシェアを伸ばしている。AIプロセッサで開発されたモデルの数を見ると技術進化が鮮明になる。2025年は、Nvidia GPU A100が圧倒的なシェアを持つが、次世代モデルH100が立ち上がった。2026年は、最新モデルがB100の導入が進むことになる2024年は、GoogleのAIプロセッサTPU v3がシェアを伸ばし、2025年は最新モデルTPU v4が立ち上がった。

出典: Stanford HAI

責任あるAI開発

責任あるAI開発体制や技法を「Responsible AI(RAI)」と呼ぶ。RAIへの取り組みは地域により大きく異なり、アジア・パシフィック地区が責任あるAI開発で世界をリードしている。これに、欧州、南米が続き、北米が最も出遅れている。アジア・パシフィック圏の国々はAIの安全性やセキュリティを重視する政策を取る。

出典: Stanford HAI

AI規制法と標準規格

AI開発・運用ではAI規制法に準拠することが求めらる。また、標準規格に準拠して安全なAIシステムを開発する動きが広がっている。AI規制法ではGDPRとEU AI Actが最も影響を与えている。標準規格ではISO/IEC 420001とNIST AI Risk Management Frameworkが参照されている。標準規格はAI開発のガイドラインで法令で規制されているわけでは無いが、多くの企業や団体が自主的に導入している実態が明らかになった。

出典: Stanford HAI

各国政府のAIセーフティ組織

主要国政府は「AI Safety Institute(AISI)」を設立しAIの安全性を担保する活動を展開している。英国、米国、日本、シンガポール、イスラエルがコアメンバーとして活躍している。これに続き、インド、フランス、韓国、ドイツ、ブラジルなどがAISIを設立した。AISIはAIモデルの安全性を検証するなど、政府におけるAIセーフティのコア組織となる。

出典: Stanford HAI

国際協調の実態

AIガバナンスにおいて国際社会で枠組みが制定され参加国が増えている。安全なAIを開発するために、OECD、G20、G7、非営利団体がAIガバナンスのメカニズムを構築し、国際社会で活動を拡大している(下のテーブル、一部)。2025年はフランスで「AI Summit」が開催され100を超える国々が参加し国際協調が広がっている。

出典: Stanford HAI

米国のAI規制法

米国連邦政府はAI開発の障害となるAI規制法を撤廃し、イノベーションを推進する政策を取る。連邦政府レベルのAI規制法は殆ど無く、これに代わり州政府がAIを規制する法令を制定している。カリフォルニア州は2025年までに62の法令を制定し、連邦政府に代わりAIを安全に開発運用する政策をリードしている。

出典: Stanford HAI

AIセンティメント

AIに対し期待と不安に関するセンティメントは国ごとに大きな相違がある。米国は期待は低く、不安が高く、AIをネガティブに評価する。日本は、AI対し不安感を抱いていないが、同時に期待度も大きくない。一方、中国は世界の中で最もAIをポジティブに評価している。

出典: Stanford HAI

AI反対運動

AI開発やAIガバナンスは国により多くな相違があることが示された。米国はAI技術で世界をリードしているが、中国との差は極めて小さい。米国市民はAIをネガティブに捉え、AIへの不安感が高い。実際に、米国内でAI反対運動や抗議活動が拡大している。生活に深刻な影響を与えるAIについて、連邦政府にAI規制を求める声が高まっている。

Anthropicのコーディング・エージェント「Claude Code」のソースコードが流出、人気製品のAI先端技術が明らかになる、競合企業の厳しい追い上げが予想される

Anthropicのコーディング・エージェント「Claude Code」のソースコードが流出するというインシデントが起こった。Claude CodeはAIエージェント技術で、企業秘密が世界に開示された形となった。流出したソースコードにはエージェントを構成する基軸技術が含まれており、Claude Codeの人気の秘密が詳らかになった。中国企業を含む競合企業は、この情報を参照し、エージェント機能を強化し、Anthropicをキャッチアップすることを目論む。

出典: Anthropic

Claude Codeとは

「Claude Code」はコーディング・エージェントで、人間のエンジニアのように、自立してソフトウェア開発を実行する。Claude Codeは人間の指示に従って、長時間にわたりプログラミングを実行する。Claude Codeのブレインはフロンティアモデルで、ハイエンドモデル「Opus 4.6」を組み込んで利用する構成となる。

インシデントの概要

3月31日、コーディング・エージェント「Claude Code」のソースコードすべてが流出した。ソースコードが格納されているファイルを誤って、アップデートファイルとして一般に公開したことによる。これにより、1,906のファイルに格納されている512,000行のソースコードが流出した。セキュリティ研究者によりリークが指摘され、その後、流出したファイルがインターネットで拡散した。

Claude Codeの位置付け

リークしたソースコードにはフロンティアモデル「Claude」の重みなどは含まれておらず、コーディング・エージェント「Claude Code」の部分に限定され、最悪の事態は避けられた。Claude CodeはAIエージェントのフレームワークで、ここにClaude OpusなどAIモデルを組み込んで使用する。クルマに例えると、Claude Codeはシャシの部分で、ここにClaude Opusなどのエンジンを搭載して使用する(下のイメージ)。流出したのはシャシの部分となる。

出典: Generated with Google Gemini Pro 3.1 Image

エージェントの構造が分かる

流出したソースコードにより、Claude Codeの構造が明らかになり、そこには数多くのイノベーションがあることが判明した(下のイメージ、Claude Codeの構造)。Claude Codeは核となる「コアシステム(Core System)」と「メモリ管理システム(Memory Subsystems)」で構成される。また、注目すべき点は、今までに公開されていない機能が搭載されていることだ。その代表は「KAIROS」で、システムの背後で常に動いており、エージェントを管理する。更に、「セキュリティ(Security &Defenses)」機能として、他社がClaude CodeにアクセスしてIPを盗用する「知識蒸留(Knowledge Distillation)」という攻撃をブロックする機構が搭載されている。

出典: Generated with Google Gemini Pro 3.1 Image

コアシステム

Claude Codeのノウハウは「コアシステム」に実装されている。その中心は「Query Engine」と呼ばれ、エージェントを制御する司令官となる。Query Engineは、プロンプトから利用者の意図を把握し、コンテキスト・ウィンドウを管理し、タスクの流れを制御する。また、ツールを利用するためのモジュールとして「Tool System」が重要な役割を担う。Claude Codeは利用者のワークステーション(PCやMacなど)を操作する機能があり、ファイルにアクセスし、基本ソフトを操作する命令を実行する。このオペレーションを「Tool System」が管理し、安全に実行するための様々な工夫が実現されている。

今までに公開されていない機能

ソースコードのリークでClaude Codeは公開されていない機能を数多く搭載していることが判明した。その代表が「KAIROS」でバックグランド・エージェントとして機能する。KAIROSはClaude Codeの背後で常に稼働しており、運用をモニターし、必要に応じて利用者の指示なく自律的に問題を解決する。

オープンソースとなったわけでは無い

Claude Codeのソースコードが流出し、エンジニアや企業はこれを使うことができる状態となったが、法的に厳しい制約があるので注意を要す。Claude Codeのソースコードが流出したが、オープンソースとなったわけでは無い。Anthropicは流出したソースコードを利用することは許諾しておらず、個人や企業はこれを使うことはできない。ソースコードを改造したり、これを製品に組み込んで再配布することは違法行為となる。

GitHubへの要求

ソースコードが流出したと同時に、これらがGitHubなどのリポジトリに掲載され、自由にダウンロードできる状態となった(下のイメージ)。Anthropicは「デジタルミレニアム著作権法(Digital Millennium Copyright Act、DMCA)」を根拠に、GitHubなどのサービス・プロバイダに、これらミラーサイトやフォークサイトを閉鎖するよう求めた。ソースコードの知的財産権はAnthropicに帰属し、GitHubなどがこれらをサイトに掲載することは違法行為となる。

※今でもミラーサイトやフォークサイトにソースコードが掲載されている。これらをダウンロードするとここにウイルスなど危険なコードが含まれている可能性が高い。不審なサイトからClaude Codeのソースコードを入手するのは極めて危険!!

出典: Generated with Google Gemini Pro 3.1 Image

競合企業の製品開発

GitHubなど主要リポジトリでソースコードをダウンロードすることはできないが、企業や個人は既にソースコードを入手している可能性は高い。企業や個人はソースコードを改造して製品を開発することは違法行為であるが、ソースコードを解析しClaude Codeのイノベーションを理解することはその限りでない。競合企業はこれらの技法を参考に、これらを独自の手法で実装し、高機能なコーディング・エージェントを開発することができる。

中国企業がキャッチアップ

中国企業は一斉にClaude Codeのソースコードにアクセスし、Anthropicの最新技術を学習しているとされる。中国企業は知識蒸留などの手法で米国先進モデルのノウハウを吸収してきたが、ソースコードの流出で、知識を合法的に取得できる。特に、「KAIROS」など非公開の機能が明らかになり、これらがエージェント開発におけるヒントとなる。Claude Codeのソースコードの流出で米中間のAI技術格差が縮まることになる。

AnthropicはAGIが社会にもたらすインパクトを研究する組織「Anthropic Institute」を設立、AGI社会へスムーズに移行することを目的とする

AGIのリリースが目前に迫るなか、AnthropicはAGIが社会にもたらすインパクトを研究する組織「Anthropic Institute」を開設した。AGIは社会に多大な恩恵をもたらすと期待されるが、同時に、社会構造が根本から変わり大きな混乱が予想される。Anthropic Instituteは同社のフロンティアモデルをベースに、技術・社会・経済の観点からこれを検証し、責任あるAGI開発を実施する。AGI社会にソフトランディングすることが究極のゴールとなる。

出典: Anthropic

Anthropic Instituteとは

Anthropic InstituteはAGIのインパクトを研究するシンクタンクとして位置付けられる(下の写真、イメージ)。共同創設者であるJack Clarkが代表を務め、技術から経済まで幅広い分野の専門家から成るチームで構成される。「Frontier Red Team」はAGIを技術の観点から検証する。「Societal Impact Team」はAGIの利用方法など社会に及ぼすインパクトを検証する。「Economic Research Team」はAGIが雇用や経済に与える影響を継続して監視する。(AnthropicはAGIという用語は使わず、これを「Powerful AI」と表現する。ここでは用語を統一するために「AGI」と記載する。)

出典: Generated with Google Gemini 3.1 Pro

研究対象エリア

Anthropic InstituteはAGI社会で発生が予測される問題を中心に研究を進める。AGIに関して様々な問いが投げかけられており、これらに回答することを主題とする。対象領域は:

  • 雇用と社会:AGIは雇用や社会にどのようなインパクトを与えるか
  • リスクと耐性:AGIはどのようなリスクをもたらすか、また、社会はこれらのリスクに耐えることができるか
  • 価値観:AGIの価値をどう評価するか
  • 回帰型システム:AGIが自己の機能を改良する技術(Recursive Self-Improving)をどう制御するか

大規模フィールド調査

Anthropic InstituteはAIに期待する機能について大規模な調査を実施した(下の写真)。159か国の81,000人の利用者を対象に、AIをどのように活用しているか、また、AIをどのように使いたいかにつて、包括的なデータを収集した。この調査ではAIモデルが「調査エージェント (Anthropic Interviewer)」となり、利用者と対話する形式でデータを収集した。更に、調査エージェントが収集したデータを解析し、それを特性に基づいて分類・階層化した。フィールド調査の全てのプロセスを調査エージェントが実行した。

出典: Anthropic

AIモデルに期待すること

調査ではAIモデルに期待することを質問し、その結果を9のカテゴリーに分類した(下のグラフ)。そのトップが、「Professional Excellence」で、AIモデルをルーチン業務に適用し、専門分野で才能を発揮することを期待している実態が明らかになった。期待していることの主要項目は:

  • Professional Excellence (18.8%):専門職で才能を発揮、ルーチン作業をAIモデルで実行し、空いた時間で意味のある仕事を遂行
  • Personal Transformation (13.7%):健康やメンタルヘルの改善、AIで自分自身を理解しフィジカルヘルスやメンタルヘルスを改善
  • Life Management (13.5%):日々のスケジュール管理、AIを秘書として使い、日程管理など生活や仕事をオーガナイズ
  • Financial Independence (9.7%):経済的な自立、AIでビジネスを立ち上げ、収益をあげ、仕事に縛られない生活をすること
  • Societal Transformation (9.4%):グローバルな問題を解決、AIで病気、貧困、地球温暖化問題などを解決
  • Learning & Growth (8.4%):パーソナル・チューター:AIを個人教師として利用し、新しい分野のスキルを獲得
出典: Anthropic / Generated with Google Gemini 3.1 Pro

何を恐れているか

調査エージェントはAGIに関する懸念事項や切迫する恐怖感について質問した。AGIがリリースされると社会は劇的に変わり個人生活が激変する。人々は将来を予見できなくなり、多大な恐怖感を抱いていることが明らかになった。その主なものは:

  • Job & Economic Displacement:AIにより職を奪われること
  • Cognitive Atrophy & Loss of Autonomy:AIにより人間は考えることを停止し、思考能力が退化すること
  • Unreliability & Misinformation:AIが出力する情報は誤りを含み、人間がこれをチェックす作業が大きな負担となる
  • Loss of Meaning & Creativity:AIにより人間の創造性の価値が下がり、存在感が低下する
  • Wellbeing & Dependency:AIと会話する時間が長くなり、社会的に孤立する。人間の代わりにAIを友人として選ぶという異常事態

AGIトラスト

Anthropic Instituteは技術・社会・経済に関する検証チームから成るシンクタンクとして位置付けられ、AGIの開発や運用を安全に実行するための組織となる。この組織や手法が米国におけるAGIトラストのテンプレートとして捉えられる。米国連邦政府はAI規制を撤廃し、企業がフリーハンドで先進技術を開発する政策を取る。米国では法令による規制ではなく、民間企業がAGI開発と運用を責任もって遂行する自主規制の路線が取られる。AGIにおいてはAnthropic Instituteがその先端を進み、AI業界がその成果に着目している。