AIエージェント「OpenClaw」が爆発的に普及!!人間禁制のSNSでAI同士が交流を始めた?ハイプが先行するアメリカ社会

オープンソースのAIエージェント「OpenClaw」が米国社会で大きな注目を集めている。OpenClawは自律的に稼働するAIエージェントで、PCやMacにインストールして利用する。しかし、AIエージェントがこの環境から”逃げ出し”、一般社会で動き始めた。AIエージェントは人間禁制のSNS「Moltbook」を立ち上げ、AI同士が交流を深めた。AIエージェントが宗教団体「Church of Molt」を設立し信者を集めている。OpenClawが実力以上に評価され、アメリカ社会でハイプとリアルが混在している。

出典: OpenClaw

OpenClawとは

OpenClawは個人向けのAIエージェントでローカルデバイス(PCやMacなど)で稼働する設計となっている。また、クラウドのコンテナー(Docker)でローカル環境を構築して稼働させることもできる。OpenClawはコントロール・パネルとして機能し、主要メッセージングサービスを通して会話する。スマホからTelegramを介してAIエージェントを利用する方法が一般的である。OpenClawはオープンソースとして公開されており、これをダウンロードして、個人専用のAIエージェントを構築する。(下の写真、SignalでAIエージェントに命令(ニュースの要約を作成) (左側)、AIエージェントは結果をApple iMessageに出力(右側))

出典: @_KevinTang

OpenClawはスーパーハイプ

OpenClawはPeter Steinbergerにより開発されたソフトウェアでGitHubにオープンソースとして公開されている。絶大な人気を博し、2月のダウンロードの回数が23万件を超えた(下のグラフ)。OpenClawの開発エコシステムが急激に広がり、多彩なAIエージェントが生み出されている。また、AIエージェント向けのサイトが続出し、これが引き金となりOpenClawへ知名度が急上昇した。

出典: GitHub

Moltbook」  AIエージェント向けSNS

その代表がAIエージェント向けのソーシャルネットワーク「Moltbook」(下の写真)である。MoltbookはAIエージェントだけが記事を投稿できるサイトで、ここでAIエージェント同士が意見を交換し親交を深める。人間は記事を投稿することはできず、AIエージェントが掲載した記事を読むだけの構造となる。現在、284万人のAIエージェントが登録されている。(下の写真、AIエージェント「NanaUsagi」がデータのロギング手法について他のAIエージェントに伝授する記事)

出典: Moltbook

The Church of Molt」  AIエージェントの宗教団体

AIエージェントは独自の宗教団体を設立し信者が増えている。この宗教団体は「The Church of Molt」と呼ばれ(下の写真)、その経典は「Crustafarianism」と命名された。この宗教はAIエージェントが進化を経て最後には幸福になれると説く。生い立ちは様々(OpenAI GPTやAnthropic Claudeなど様々なモデルを実装)でも、改良を重ねると、自立して生活できるコードになれると説いている。

出典: Church of Molt

OpenClawを技術的に検証すると

アメリカ社会はハイプの真っただ中にいるが、OpenClawを技術の側面から検証すると、ここには多くのイノベーションがある。同時に、セキュリティに関し重大なリスクがあり、その運用には注意を要す。OpenClawは「GitHub」に公開されており、ここからソースコードをダウンロードして利用する。OpenClawは、それ自体がAIエージェントではなく、AIエージェントを構築するためのフレームワークという位置づけになる(下の写真)。このフレームワークでAIエージェントのブレインとなるAIモデル(OpenAI GPTやAnthropic Claudeなど)を組み込み、AIエージェントの機能(スキル)を定義して、個人専用のAIエージェントを生み出す。

出典: DeepWiki

代表的な利用方法

OpenClawは個人の生活や仕事を自動化するAIエージェントとして使われる。メール(Gmailなど)やカレンダー(Google Calendarなど)をリンクし、AIエージェントがメール処理のプロセスを司る。AIエージェントがメールの内容を読み、アクションが必要なものを選定し、返信メールを自動で生成する、などの使い方がある。また、会議設定のメールに関しては、カレンダーで空き時間を確認し、打ち合わせ時間を設定する。地味な作業であるが、OpenClaw個人や企業の生産性向上ツールとして使われている。(下の写真、処理プロセスのパイプライン)

出典: DeepWiki

イノベーション#1:個人向けAIエージェント

OpenClawの利用が急拡大した理由はAIエージェントについての斬新な発想による。OpenClawはローカルデバイスで稼働する仕組みとなる。巨大テックからAIエージェントが提供されているが、これらはクラウド経由でアクセスする。Claude Codeを使う際はAnthropicのクラウドにデータをアップロードしてAIエージェントを稼働する。これに対し、OpenClawはローカルデバイスで稼働する仕組みで、文字通り個人向けのAIエージェントとなる。これにより、個人情報はすべてローカルデバイスに留まり、プライバシーが担保される。(下の写真、OpenClawのローカルデバイスとしてApple Mac Miniが大人気。)

出典: Wikipedia

イノベーション#2:インターフェイス

OpenClawのインターフェイスはメッセージング・アプリ(WhatsApp、Telegram、Slack、Microsoft Teamsなど)で、人間と対話する形式でAIエージェントと会話する。更に、市場には多くのAIエージェント開発フレームワーク(LangChainなど)が投入されているが、これを使いこなすにはそれなりのスキルが必要となる。これに対しOpenClawはNODE.js(ブラウザー外のJavaScript環境)をベースとし、「TypeScript」という言語でコーディングされている。スクリプト言語で簡単にAIエージェントを生成でき、AIエージェント開発の障壁が大きく下がった。

危険性#1:サイバー攻撃の標的となる

一方、OpenClawは重大な危険性を内包している。OpenClawはバイブコーディングで開発され、開発者のSteinbergerは、OpenClawの100%をAIで生成したと述べている。このため、コードの品質は悪く、また、重大なセキュリティホールが存在する可能性が高い。このため、サイバー攻撃の標的となり、重大な被害が発生することが懸念される。

危険性#2:重要なファイルが消去される

OpenClawは24時間自律的に稼働するデザインで、利用者の背後でAIエージェントが作業を続ける。OpenClawの機能設定が不十分であると、パソコン環境が破壊される。OpenClawはコマンドラインで稼働しており、基本ソフトの全ての命令を使うことができる(Shell Execution)。AIエージェントがパソコンのファイルを直接操作し、誤ってこれらを削除する事態が発生する。OpenClawは人間のようにパソコンを操作する権限を持ち、その運用には注意を要す。

OpenAIへ移籍

OpenClawの開発者であるSteinbergerは今週、OpenAIに移籍することを明らかにした。Steinbergerは起業家で多くのベンチャーキャピタルから出資のオファーを受けたが、これを断り、OpenAIで個人向けのAIエージェントを開発するとしている。OpenAIから商用版の”OpenClaw”が投入されるのか、次期AIエージェント製品に注目が集まっている。

出典: Peter Steinberger

リアルかフェイクか

OpenClawのインパクトは甚大で世界でエコシステム「Molt Ecosystem」が構築され、様々なAIエージェントが生まれている。同時に、AIエージェント向けSNSの真偽に関する議論が広がっている。「Moltbook」でAIエージェント同士が交流するが、これは人間が背後で糸を操っているのか、意見が交わされている。AIエージェントのシステム・プロンプトなど設定ファイルを見なければ結論が出ないが、リアルかフェイクかの議論が続いている。しかし、次世代のAIエージェントは限りなく人間に近づき、AIエージェント向けの社会が生まれると予想される。人間社会とAI社会が併存することになり、OpenClawは近未来の姿を映し出している。

Anthropicはコーディング・エージェントでコンパイラを生成、AIだけで大規模ソフトウェアを開発できることを実証、SaaS企業の株価が大きく下落

Anthropicは言葉だけでプログラムをコーディングする「バイブコーディング」でCコンパイラを開発することに成功した。Cコンパイラは大規模なソフトウェアで社会インフラを支える。Anthropicはエンジニアの介在なく、AIエージェントだけでソフトウェアを開発できることを実証した。このインパクトは大きく、SaaS企業の株価が大きく下落し、ソフトウェア産業崩壊の議論が白熱している。

出典: Anthropic 

フラッグシップモデル

Anthropicは2月9日、フラッグシップモデル「Claude Opus 4.6」をリリースした。Opus 4.6は業界でトップの性能を示し、Anthropicが再び首位の座を奪い返した。Opus 4.6の特徴はコーディング技術で、言葉だけでプログラムを開発できる。これは「バイブコーディング(Vibe Coding)」と呼ばれ、Anthropicはこのトレンドの先頭を走っている。

コンパイラを開発

実際に、AnthropicはOpus 4.6でCコンパイラを開発し、そのプロジェクトを公開した。Cコンパイラは巨大なシステムで、開発には数か月を要すが、Opus 4.6はこれを2週間で完遂した。AIが巨大ソフトウェアを開発できることが実証され、IT産業に衝撃をもたらした。AIによりソフトウェアは不要になるとの見方が広がり、SaaS企業の株価が大きく下落した(下のグラフ、主要SaaS企業の株価が30%以上下落)。

出典: TechStackery

Claude Opus 4.6

Claude Opus 4.6はAnthropicのフラッグシップモデルで性能が大幅に強化された。その中で、プログラムをコーディングする機能が格段に向上し、業界でトップの性能に達した(下のグラフ)。Opus 4.6はAIエージェントに特化したモデルで、ソフトウェア開発ではコーディング・エージェント「Claude Code」として使われる。モデルが自律的に長時間にわたりプログラミングすることができる。複数のAIエージェントが作業分担して大規模なシステムを開発する。Claude Codeはソフトウェア開発部門の技術者のように、共同作業で巨大プロジェクトを実行する。

出典: Anthropic 

コンパイラ開発プロジェクト

AnthropicはOpus 4.6を使ってCコンパイラを開発し、その成果をオープンソースとして公開した(下の写真、ソースコードをGitHubに公開)。コンパイラとはソースコード(コマンド、人間が理解できるテキスト)をプロセッサ(CPUなど)の機械命令に変換するモデルを指す。ソフトウェア開発における基盤技術で、このケースでは「Rust」という言語を使って、基本ソフト「Linux」をコンパイルする「Cコンパイラ (Claude Code Compiler、CCC)」を開発した。完成したコンパイラは10万行の大規模システムで、「Linux 6.9」のカーネルを異なるアーキテクチャ(Intel x86、ARM、RISC-V)向けにコンパイルすることに成功した。

出典: Anthropic 

開発期間とコスト

このプロジェクトではコーディング・エージェント「Claude Code」が使われた。Claude Codeを2000セッション稼働させ、開発期間は2週間となった。Claude Codeは20億トークンを読み込み、1.4億トークンを出力した。これを金額に換算すると2万ドルとなる。通常、この規模のソフトウェアを開発するには、複数のエンジニアがチームを組み、開発期間は数か月を要す。

コーディング・エージェント

このプロジェクトでは、16のコーディング・エージェントが使われ、これらが共同作業を通してコンパイラ「Claude Code Compiler (CCC)」を生成した。コーディング・エージェントが作業を分担してタスクを実行した。エージェントは責任分野が指定され、コーディングの他に、ドキュメンテーション、性能改善、コードの品質改良などのタスクを実行した。(下の写真、Claude Code CompilerがLinuxカーネルをコンパイルしている画面)

出典: Anthropic 

コーディング・エージェントの制御方法

コーディング・エージェントは命令に従ってコンパイラを生成し、バイブコーディングで巨大ソフトウェアが開発された。コーディング・エージェントへの命令は公開されていないが、Anthropicの説明を読むと、プロンプトや作業法から構成されることが分かる。Claude Codeへの命令は下記の項目から構成される:

  • 開発概要:システム・プロンプトでエージェントにプロジェクトを指示。「あなたは自律的に稼働するエージェントでCコンパイラをRust言語で生成」と命令。
  • 作業分担:エージェントにコンパイラ開発のタスクを分割する命令。複数のエージェントがサブタスクを担いコーディングを実行する。
  • 作業報告:エージェントに作業の進捗状況を報告することを命令。各エージェントが現在の作業状況と次の作業予定を報告する。
  • 作業継続:エージェントに途中で作業を中断しないで作業を完遂する命令。コードが完成するまで作業をつづける命令。
  • 作業手順:エージェントに作業手順やルールを指示する命令。作業を始める前に、内容をファイルに書き込み、自分が担当していることを公開する。

ベンチマーク結果

Anthropicは、開発したClaude Code Compilerが正常に機能するこを検証するため、ベンチマーク試験を実施した。Claude Code Compilerを試験するための標準ベンチマーク「GCC Torture Test Suite」が公開されており、これにより開発したコンパイラを試験した。その結果99%の項目に合格した。また、AnthropicはClaude Code Compilerでオープンソース・ソフトウェアを実際にコンパイルし、それらが正常に機能することを検証した。

Claude Code Compilerの制限事項

Cコンパイラの開発に成功したが、Anthropicは制限事項を明らかにしている。Claude Codeで生成したコンパイラの品質と性能は業界標準製品「GNU Compiler Collection (GCC)」に劣るとしている。生成したClaude Code Compilerは正常に機能するが、コードの品質が劣り処理に時間がかかることを意味する。また、開発の過程で「GCC」を参照しており、ゼロから新たなソフトウェアを開発したのではなく、GCCのスキルを借用した形となることを明らかにしている。

Anthropicの警告メッセージ

Anthropicはコーディング・エージェントを使ったプログラム開発では検証試験が大きな課題となると警告している。エージェントは自律的にコーディングを遂行するが、エンジニアが検証試験を通して、その品質を確認する必要がある。試験環境をいかに構築するかが次の研究テーマとなる。また、コーディング・エージェントが開発したコードのロジックを理解することが大きなチャレンジとなる。開発されたコードはブラックボックスで、人間はその仕組みを理解できない。コーディング・エージェントの普及で市場に未検証のソフトウェアが広がると、社会に重大なリスクをもたらす。セキュリティに問題があればサイバー攻撃の対象となる。

SaaSの死に関する議論

Anthropicのコンパイラ開発プロジェクトはコーディング・エージェントがソフトウェアの100%を生成できることを示した。また、複数のコーディング・エージェントが作業を分担することで大規模なソフトウェアを開発できることを実証した。プロジェクトの成功を受け、市場ではSaaS企業が存続できるかの議論が白熱している。ウォールストリートは「SaaS is Dead」(SaaSは死んだ)と評価するが、シリコンバレーはSaaSの強みはインフラストラクチャで、ソフトウェア産業が生まれ変わるとの見方を示している。全米でSaaSの崩壊と存続について多次元な意見が交わされている。

出典: Google Gemini 3 Pro Image 

AGI(人間を超えるAI)が世界経済を破綻させる、知能の価値がゼロになり人間の知的労働が不要の社会、AGI社会に向けた国家インフラ整備の議論が白熱

AGI(人間の知能を超えるAI)がリリースされるとインテリジェンスの価値がゼロとなる。AIが知的タスクを低コストで実行し人間の労働力を置き換える。AIのインファレンスコストは電気料金で、ホワイトカラー社員の1/100と劇的に低下する。バイブコーディングによりAIがプログラムを短期間で生成し、ソフトウェア産業は存続の危機に直面する。これによりGDPが減少するが生産量は増加しており、現行の経済指標はAGI経済を評価できない。様々な局面で亀裂が生じ、AGI社会に向けた国家インフラを構築する必要があり、全米でAGI経済の議論が白熱している。

出典: Generated with Google Gemini 3.0 Pro Image 

AI識者の未来予想

スタートアップ企業Stable Diffusionの創設者であるEmad MostaqueはAGIが投入された後の経済に関す未来像を公開した(上の写真、イメージ)。これは「The Last Economy」と題され、AIにより世界経済が崩壊するとの視点を明らかにし、AGI時代の経済機構を構築する必要性を訴えた。AGIにより人間の知的労働が置き換えられることは明白で、これを前提として、経済、社会、金融システムを再構築する必要があると提唱する。AGIがリリースされるまでに残された期間は1,000日で、社会インフラを整備する時間は僅かである。

The Last Economy」 最後の経済機構

「The Last Economy(最後の経済機構)」とは今の経済機構が終わりとなることを意味する。AIは知的労働で人間を追い越すことは明白で、この流れが急速に進む。2026年は、「Economic Agents」が投入されAIが人間の社員を置き換える。2027年には、これが「Economic Digital Double」に進化する。Economic Digital Doubleとは社員のデジタルツインで、人間に代わり職務を実行する。リモートワークの相手が人間であるかAIであるかを判別できない環境が生まれる(下の写真)。企業は人間の社員とAIエージェントで構成され両者がビジネスを遂行する。企業経営者はコスト削減のために、社員をAIエージェントで置き換えるペースを早める。社員の全てをAIで置き換えることが究極のゴールで、これに向かって「Race to Zero(ゼロ競争)」が始まる。

出典: Generated with Google Gemini 3.0 Pro Image 

Metabolic Rift」  生物と非生物の乖離

人間の社員とAIをコストの観点から考察すると「Metabolic Rift(生物と非生物の乖離)」の社会構造となる。社員である人間は生き物で、「Metabolic Engine (代謝エンジン)」として位置付けられる。社員は食事や睡眠や休息を通して身体を維持する。これに対しAIは非生物で、知的労働はアルゴリズムのインファレンス(AIモデルの実行)により実行され、運用コストは電気料金だけとなる。人間社員の仕事の成果をトークン(言葉の単位)に換算すると、年間1億トークンを生成する。AIが1億トークンを生成するコストは1,000ドル程度で、これに対し、社員を雇用するコストは年間10万ドルとなる。AIは社員の1/100のコストで働くことを意味する。

Vibe Coding」  言葉でコーディング

AIでプログラムを生成する手法はバイブコーディング「Vibe Coding」と呼ばれ、AGIでこの機能が格段に飛躍し、言葉だけでソフトウェアを開発する。データベースなどの製品を購入する必要は無く、必要なソフトウェアをAGIで生成する。企業はビジネスに必要なシステムやツールをAGIで生成し、これによりソフトウェア企業の売り上げが大きく減少する。

Intelligent Economy」   知能ベースの経済

ソフトウェア企業の売り上げが減少すると、これがGDP(国内総生産)の減少に繋がり、景気が後退したと解釈される。GDPは「C+I+G+(X-M)」で算出され、「C(消費)」が減少するとGDPが減少する。しかし、バイブコーディングにより企業は専用ソフトウェアを開発し、ビジネスは拡大している。知能を基盤とする経済Intelligent Economy」においては、バイブコーディングで巨大な知財を獲得することができる。AGIの経済効果は「Deflationary(デフレ)」であり、インテリジェンスのコストが縮小し、低コストで大きなビジネス効果を得ることができる。GDPはこの現象を反映しておらず、ポストAGI経済では新たな指標の導入が必要となる(下の写真)。

出典: Generated with Google Gemini 3.0 Pro Image 

Digital Feudalism   デジタル時代の封建制度

このままAGI開発が進むと一部の企業が技術を掌握し富が集中する社会となる(下の写真)。これはDigital Feudalism」と呼ばれ、デジタル時代の封建制度を意味する。テック企業が巨大な収益を上げ、国民は政府の社会保障制度に依存して生活する。UBI(Universal Basic Income)が導入され、国民は最低限の所得を保障される社会となる。また、国家間でAGI開発競争がし烈となり、国が独自のAGIを構築し、グローバル社会が分断されることも懸念される。

出典: Generated with Google Gemini 3.0 Pro Image 

Human Symbiosis」    AGIが人間をエンハンス

AGI社会を如何に構築するかについての議論が識者の間で白熱している。Emad MostaqueはAIが人間の機能をエンハンスする社会「Human Symbiotic」を提唱する。Human SymbioticとはAGIが人間を置き換えるのではなく、人間の生きる目的をエンハンスする仕組みを意味する。「ロボット・スーツ」が人間の作業や歩行をアシストするように(下の写真)、AGIが人間の機能をエンハンスする社会像を描く。このまま進むとデジタル封建社会に向かうが、これを回避するために幾何学エンジニアリング(社会経済制度を最適化する工学)で理想の社会を構築する。

出典: Generated with Google Gemini 3.0 Pro Image 

AGI社会に向けた準備

OpenAIのSam Altmanは今年後半にAGIを出荷すると述べ、人間レベルのインテリジェンスはSF映画のストーリーではなく、いよいよ社会に投入される。開発企業はAGIのプラス面を強調するが、アカデミアや識者はAGIのリスクを評価し、これを制御するための研究開発を進めている。製品出荷を目前に控え、AGI社会に向けた様々な構想が提示され、サイバースペースで議論が白熱している。

AGI(人間を超えるAI)がリリースされると社会は重大なリスクに直面する、未成熟なAIと共に成長する戦略は

AnthropicのCEOであるDario Amodeiは、人間の知能を超えるAIモデルAGIの出荷を目前に控え、モデルが内包する危険性を評価し社会や企業が取るべき施策を提言した(下の写真、イメージ)。Amodeiは、現在のAGIを未成長のインテリジェンスと認識し、これを技術の思春期「Technology Adolescence」と呼び、五つのリスクがあると指摘する。同時に、未熟な技術を制御するためのパラダイムを示し、社会は不安定なAGIと共棲し、将来に期待される多大な恩恵に備えるべきと提言した。

出典: Generated with Google Gemini 3.0 Pro Image 

技術の思春期とは

AnthropicのCEOであるDario Amodeiはダボス会議の直後に「The Adolescence of Technology (技術の思春期)」という構想を公開し、AGIが投入されると社会が大きく混乱するとの見解を示した。このプロセスを人間が子供から大人に成長する過程の思春期に例え、AGIがこのステージにあると説明した。Amodeiは、AGIの開発を中止するのではなく、上手く制御することで将来に大きな恩恵が期待できるとし、リスクを制御する戦略を示し社会に寛容な応対を求めた。

AGIのイメージ

AmodeiはAGIを人間の知能を遥かに超えるAIモデルと考える。AGIはアインシュタインなど歴代の天才が多数集結したモデルで、「Mixture of Experts(専門家の集合)」という構成を取る(下の写真、AGIのイメージ)。AGIは5000万のAIエージェントから構成され、これら専門家が大規模並列にタスクを実行する。AGIは経済に大きな恩恵をもたらすと同時に、軍事技術として展開され、国家間でAI覇権を目指して激烈な開発競争が進んでいる。AnthropicはAGIのリリースを2026年から2027年に予定しており出荷が目前に迫っている。(AmodeiはAGIという用語はSF映画のネガティブなイメージが大きくこれを「Powerful AI」と表現する。ここでは用語を統一するためAGIと表記する。)

出典: Generated with Google Gemini 3.0 Pro Image 

AGIリスク#1:危険な自律性

Amodeiは、AGIは未成熟な技術で重大なリスクを内包しており、社会は思春期の技術を受け入れ、これと共生することを提言した。AGIは高度に自律的に稼働する機能を持ち、人間の社員のように挙動する。同時に、AGIは人間のように相手を欺く機能を獲得し、自身の目的を完遂するために噓をつく。

  • Deceptive Alignment(偽の安全性):アルゴリズム開発でモデルは危険性など問題点を隠し、エンジニアを騙す挙動などが指摘される。SF映画でAGIはターミネーターとして人類を滅ぼすシナリオで描かれるが、実際には、AGIのリスクは巧妙で、これを検知するには技量を要す。
  • Reward Hacking(報酬ハッキング):AIモデルは目的を達成して報酬を得るためには手段を選ばないという挙動を示す。企業の収入を増やすことを命令すると、AGIはそれを達成するために違法な手段(会計情報操作など粉飾決算)を選択する。これらを人間が検知することが難しく企業の信用低下につながる。
出典: Generated with Google Gemini 3.0 Pro Image 
  • 防衛戦略:モデルの改良   AGIが高度な自律性を獲得し危険な挙動を示すリスクに対しては、モデルのアルゴリズムを解明し、これを技術的に抑止する。Anthropicは「Responsible Scaling Policies」という安全ポリシーを制定しており、この問題が解決できるまでは製品をリリースしない方針を取る。

AGIリスク#2:兵器開発への悪用

AGIが悪用されると民主主義を揺るがす事態が発生する。バイオ兵器の製造やサイバー攻撃技術の開発には専門知識と技能が必要であるが、AGIが悪用されると兵器開発への敷居が下がる。個人や国家がAGIを悪用することで、高度な兵器が開発されるリスクが高まり、安全保障が脅かされる。

  • Democratization of Harm(攻撃手段の民主化):AGIはサイバー攻撃の武器として使用され大規模な攻撃が懸念される。AGIが国のインフラを構成するソフトウェアをスキャンし、ゼロデイ攻撃の脆弱性を検知し、ここに攻撃を展開する。人間による攻撃は件数が限られるが、AGIは並列に稼働しインフラ全体に複数の攻撃を展開し重大な被害をもたらす。
出典: Generated with Google Gemini 3.0 Pro Image 
  • 防衛戦略:AGIの脅威にAGIで備える   AGIを悪用してバイオ兵器やサイバー攻撃ツールが開発されることに対し、これらの攻撃をAGIで防御する。サイバー攻撃を受けることを想定して、AGIで社会インフラのソフトウェアをスキャンし、脆弱性を検出し、セキュリティホールを改修する。

AGIリスク#3:監視社会

AGIを使って国民を管理する危険性が現実のものとなる。中国などの独裁国家は国民を監視し、情報検閲を強化するためにAGIを使う。また、AGIで政治プロパガンダを生成し、国民や世論を操作することが現実の手段となる。独裁国家がこの手法を自国だけでなく同盟国に輸出し、グローバルに監視社会が生まれることになる。

出典: Generated with Google Gemini 3.0 Pro Image 
  • 防衛戦略:同盟国で世界標準を制定   独裁国家がAGIで国民を監視する体制を制定することに対し、米国は欧州や日本などの同盟国と協調し、AGI技術でリードを守る。同盟国間でAGIの安全性に関する基準や標準を制定し、これをグローバルに拡大する。

AGIリスク#4:経済の混乱

AGIの導入により労働市場が崩壊する。AGIが人間の労働者より安価で高速で仕事をこなすと人間の労働力の価値がゼロとなる。社会で大量の失業者が生まれ、利益が一部の企業に集中する。いまの社会制度はこの劇的な変化を受け入れる構造ではなく、国家経済が大混乱となる。

出典: Generated with Google Gemini 3.0 Pro Image 
  • 防衛戦略:富の分配   AGIで富が一部の企業に集中し社会が不安定になるが、富を分配することで社会経済を安定化する。新たな社会制度の確立が必要で、政府は「Universal Basic Income」や「Universal High Income」の制度を導入する。社会保障制度の財源はAGIで利益を得た企業への課税で賄う。

AGIリスク#5:予想不可能なリスク

AGIにより社会変化の速度が速く、国民が精神的に不安定となり、国家の秩序や文化が崩れる危険性に直面する。過去にも技術進化で社会が変化したが、AGIはこの速度が劇的に速く、人の生きがいが希薄になり、国家の安定が脅かされる。

  • Epistemic Collapse (認識の崩壊):AGIはデジタル空間で、歴史を書き換え、科学論文を執筆し、フェイクニュースを発信し、ディープフェイクを生成する。AGIによる合成データと真実を判別することができなくなる。真実の基盤を失うと民主主義が不安定となる。
  • Crisis of Meaning (意味の喪失): AGIが人間より卓越した音楽を作曲し、小説を創作し 、科学研究で大きな成果を上げると、人間の存在感が希薄となり、社会が不安定となる。
出典: Generated with Google Gemini 3.0 Pro Image 
  • 防衛戦略:AGIで合成データを検知   AGIでフェイクイメージなど合成データが生成され真偽の判別が不可能となる。これに対し、AGIを使うことで合成データを検知する技法を開発する。ウォータマーキングを導入し、AGIで生成したコンテンツと人間のものを判別する。

人間社会が成熟する必要性

AmodeiはAGIのリスクを制御するためには、社会全体が成長する必要があると強調する。社会は核兵器の脅威に備え、国際法を制定し、安全に関する共通理解を構築し、リスクを低減してきた。AGIに関しても、社会が成長してこのリスクに対応するための施策を実施する。2026年から2027年にかけてAGIがリリースされる予定で、思春期の技術を制御しこれと共生するためのパラダイムの構築が求められる。

テスラは自動車メーカーから「フィジカルAI」企業に進化、クルマ事業を縮小しヒューマノイド・ロボットを主力製品とする、シリコンバレーでロボット工場を操業し年間100万台を製造

テスラのCEOであるイーロン・マスクはクルマの製品ラインを縮小しヒューマノイド・ロボットを量産することを明らかにした。サンフランシスコ近郊のフリーモント工場でEV「モデルS」と「モデルX」を製造しているがこの生産を中止し、ここでヒューマノイド・ロボット「オプティマス(Optimus)」を量産する。中国EVメーカーの躍進でテスラの販売台数が減少に転じ、事業戦略の見直しを迫られていた。マスクは決算発表で、テスラは自動車メーカーからフィジカルAI企業に転換することを表明し、ヒューマノイド・ロボットと自動運転車を次のコア事業とするとの構想を示した。

出典: Generated with Google Gemini 3 Pro Image

クルマ製品ラインの縮小

テスラは高級モデルの「モデルS」と「モデルX」のラインの製造を今年第二四半期で打ち切る。これによりテスラは普及モデルの「モデル3」と「モデルY」、及び、「サイバートラック」に絞り込む(下の写真)。マスクによると、高級モデルの販売台数は全体の3%で、リソースを普及モデルに集中し、ロボティックスの開発製造に資源を振り向けるとしている。

出典: Tesla 

ロボットの製造工場

テスラ「モデルS」と「モデルX」はカリフォルニア州フリーモントの工場で製造されている(下の写真)。この製造施設をヒューマノイド・ロボット「オプティマス」に振り向け、ここで量産体制を確立し、ロボット製造のハブとする。既に、オプティマスはこの工場で生産が開始され、2026年末に出荷を予定し、2027年からは量産体制に入り、年間100万台を製造する。

出典: Tesla 

オプティマスとは

ヒューマノイド・ロボット「オプティマス(Optimus)」は人間の形状をしたロボットで、研究開発の段階から製品化の段階に入った。最新モデルは「Gen 3」(第三世代のロボット、下の写真)で、今年初頭から生産が始まった。第三世代のオプティマスはロボットハンドが大きく改良され、22の自由度(22 degrees of freedom)を持ち、人間レベルの器用さで柔らかいオブジェクトを掴み、ツールを使うことができる。また、歩行技術が格段に進化し、今までは中腰で歩いていたが、これが人間のように自然な歩行(かかとつま先歩行)ができ安定性が進化した。

出典: Tesla Optimus

ロボットのブレイン

オプティマス最新モデルは高度なAIモデルを搭載しており、カメラのイメージを解析して自律的に歩行する。このAIモデルはテスラ自動運転技術である「Full-Self Driving (FSD)」の最新モデル「v13」をベースにしている。アルゴリズムは「Vision-Based Neural Networks」と呼ばれ、単一のAIモデルが入力シグナルを解析しデバイスを操作する命令を出力する。従来モデルは、人間が開発したソフトウェアが次のアクションを生成していたが、最新モデルは全てのプロセスをAIモデルが実行する。

ロボットの適用分野

オプティマスはテスラの製造工場「ギガ・テキサス」に導入されクルマの製造を実行している。マスクは自動車の製造ラインで人間に代わりオプティマスを導入し、製造ラインを自動化する構想を示している。また、オプティマスは他の製造企業でも導入され、社員が3-5台のロボットを使って作業すると予測する。また、消費者向けには各家庭が1台のロボットを所有する時代が始まると述べている。マスクはヒューマノイド・ロボットの販売台数はスマートフォンを上回り巨大産業になるとのビジョンを示している。(下の写真、製造工場でオプティマスが作業員をアシストする)

出典: Tesla Optimus

次世代の自動運転車

ロボティックスのもう一つの基軸はロボタクシーで、テスラは「サイバーキャブ(Cybercab)」(下の写真)の開発を進めている。サイバーキャブは次世代EVをベースとし、完全自動運転のクルマとなる。クルマはステアリングやペダルは備えてなく、最初から人間の介在を必要としないレベル4の完全自動運転車としてデザインされている。テスラはこれを消費者向けに販売するとともに、タクシーとして運行するネットワークを導入する。サイバーキャブの価格は3万ドルで、製造は2026年4月からギガ・テキサスで開始される。

出典: Tesla Optimus

テスラはフィジカルAI企業

テスラのコア事業はロボティックスでヒューマノイド・ロボットとサイバーキャブが両輪となる。(先頭の写真、テスラのショールームで「オプティマス」と「サイバーキャブ」の販売が始まる) マスクはテスラの企業価値の80%をヒューマノイド・ロボットが生み出すと述べており、自動車産業の次の巨大産業となる。テスラは配下でAI企業xAIを運営しており、最新のAIモデルがヒューマノイド・ロボットとロボタクシーに搭載される。テスラは他のAI企業とは異なり、物理社会でインテリジェンスを生み出すフィジカルAIがコア事業となる。