カテゴリー別アーカイブ: 人工知能

AIがセキュリティ企業の製品を置き換える!?Anthropicはソフトウェアのセキュリティを強化する機能「Claude Code Security」を公開、AIがコードベースをスキャンし脆弱性を検知

Anthropicはソフトウェアのセキュリティを強化する機能「Claude Code Security」をリリースした。これは、コーディング・エージェント「Claude Code」に搭載された機能で、コードベースをスキャンしてセキュリティの脆弱性を洗い出す。また、Claude Code Securityは、セキュリティホールを改修するためのコードを生成する。既に、AnthropicはClaude 4.6でオープンソースをスキャンして、500件のセキュリティホールを検知している。Claude Code Securityによりセキュリティ製品が不要になり、主要セキュリティ企業の株価が一様に下落した。

出典: Anthropic

Claude Code Securityとは

「Claude Code Security」はコーディング・エージェント「Claude Code」に実装されている。Claude Codeの初期画面で「Scan Code」のボタンをクリックして起動させる(下の写真)。Claude Code Securityはコードベースをスキャンしてセキュリティの欠陥や弱点(脆弱性)を検知して、これを修正するための修正コード(パッチ)を生成する。エンジニアがこれを検証してソフトウェアに適用するプロセスとなる。Claude Code Securityはベータ版として一部の研究者向けに公開され評価作業を進めている。

出典: Anthropic

従来のセキュリティ手法

コードベースをスキャンしてセキュリティの脆弱性を検知するツールは幅広く使われている。「SonarQube」や「Checkmarx」などがその代表で、コードベースをスキャンして安全性に関する問題点を見つけ出す(下の写真)。これらは開発中のコードベースを検証し、セキュリティに関する問題点を洗い出すために使われる。その手法は「Static Application Security Testing」と呼ばれ、事前に設定したルールに準拠してセキュリティホールを検知する仕組みとなる。

出典: SonarQube

Claude Code Securityの手法

これに対し、Claude Code SecurityはAIモデルをベースとし、インテリジェントな手法でセキュリティの脆弱性を検知する。Claude Code Securityは人間のようにコードを読み、その構造や意味を理解する。これにより、コンテクストの視点から問題点やエラーを見つけ出す。シンタックスにエラーがなく、正常にコンパイルでき、スペック通り機能するコードでも、コードのロジックを検知し問題点を見つけ出す。

Claude Code Securityが脆弱性を検知した事例

EコマースサイトでClaude Code Securityがセキュリティホールを検知した事例(下の写真)。このサイトはハッカーがデータに攻撃命令「Command Injection」を挿入しシステムの制御を奪う脆弱性がある。コードが外部ウェブサイトのデータを読み込む構造となっており、ハッカーはデータにShell Command(基本ソフトを操作する命令)を挿入すると、このコマンドが実行されEコマースサイトの制御を奪われる。

出典: Anthropic

プルリクエストとマージ

Claude Code Securityはセキュリティの脆弱性を埋めるためにパッチを生成する。このパッチをそのままソフトウェアに適用するのではなく、人間がこれを検証して、正しいことを確認して実施するプロセスとなる。ソフトウェア開発の観点からは、Claude Code Securityが修正コードを生成して、チームメイト(人間)にこの検証を依頼する。これは「プルリクエスト(Pull Request)」と呼ばれ、この過程をClaude Code Securityが担う。人間がリクエストされたコードを検証し、正しいことを確認して、メインのコードに「マージ(Merge)」するプロセスとなる。最終判断はあくまで人間で、修正コードの責任は人間が担う。(下の写真、Claude Code Securityが生成したパッチ。上述の「Shell Command」を実行する命令が消去され、ハッカーは悪意あるコマンドをインジェクトしても、それはテキストとして処理され実行されない。)

出典: Anthropic

セキュリティ企業の株価下落

AnthropicがClaude Code Securityをリリースした直後に、米国の主要セキュリティ企業の株価が下落した(下のグラフ)。セキュリティ大手のCrowdStrikeは8%、Zscalerは11%、下落した。現行のセキュリティ製品はルールベースで脆弱性を検知するが、Claude Code Securityは人間のようにコンテンツを理解してセキュリティホールを埋める。投資家の間で現行モデルがClaude Code Securityに置き換えられるとの懸念が広がっている。

出典: SeekingAlpha

セキュリティ企業の反論

これに対し、セキュリティ企業はClaude Code Securityは市場の一部をカバーするだけで、その影響は限定的であると反論している。セキュリティの対象分野は広く、Claude Code Securityは「Application Security」に区分される。これは、ソフトウェアなどアプリケーションのセキュリティを対象とする。この他に、サイバー攻撃をリアルタイムで検知する「Endpoint Security」、ファイアーウォールなど「Network Security」、認証管理など「Identity Management」など幅広い分野でセキュリティ製品が活躍している。Claude Code Securityは製品ポートフォリオのごく一部で、影響の範囲は限られると主張する。

シンメトリックな脅威

サイバー攻撃とその防御は「シンメトリックな脅威(Symmetric Threats)」と呼ばれる。サイバー攻撃ではAIを悪用し、システムの脆弱性を見つけ出し、そこから侵入してシステムの制御を奪う。これに対し、防御側はAIを活用し、システムをスキャンして脆弱性を洗い出し、問題個所を修正する。また、AIでサイバー攻撃のシグナルを検知し、侵入を食い止める。攻撃側と防御側で技術競争が進む中、防御側は攻撃者より一歩先行することで攻撃を食い止める。このため、高度なAIセキュリティを開発することが国家安全保障にとって至上命題となる。

中国企業がAnthropicのAI技術を盗用、DeepSeekなどが「知識蒸留」という手法でClaudeの推論機能を抽出、短期間で高度なAIモデルを開発できた理由が判明

Anthropicは中国企業からAIモデルの知識を盗み出す攻撃を受けたことを明らかにした。DeepSeekなど中国企業は「知識蒸留(Knowledge Distillation)」という手法で、Anthropicの先進モデル「Claude」から推論機能などを抽出した。米国政府はGPUプロセッサを中国に輸出することを制限しているが、中国企業はClaudeの知識を抽出することでこの規制を迂回した。攻撃手法は巧妙で、中国企業は巨大ネットワークを構築し、多数のアカウントから発信元情報(IPアドレス)を偽り、Anthropicのサーバにアクセスした。DeepSeekが短期間で高機能なAIモデルを開発し米国市場に衝撃を与えたが、Anthropic Claudeのスキルを盗用することでこれを達成したことが判明した。

出典: Anthropic

攻撃の概要

Anthropicは2月23日、中国企業DeepSeek、 Moonshot、MiniMaxから「知識蒸留(Knowledge Distillation)」という手法で大規模な攻撃を受けたことを発表した。これら企業は、Anthropic Claudeから不正な手法で知識を蒸留(Illicit Distillation)し、AIモデルの開発で利用した。知識蒸留はAI開発で一般的に使われる技法であるが、他社の技術を抽出することは違法行為となる。

知識蒸留とは

知識蒸留は大規模モデルのスキルを抽出し、それを小規模モデルに転移し、短時間・低コストでAIモデルを開発する手法となる(下の写真)。AI開発で幅広く使われており、Anthropicのケースでは、ハイエンドモデル「Opus」の知識を知識蒸留の手法でローエンドモデル「Haiku」に転移した。HaikuはOpusの多くのスキルを修得し、モデルの開発を短時間・低コストで達成した。

出典: Jianping Gou et al.

不正な知識蒸留

これに対し中国企業三社は、知識蒸留の手法を、先進技術を盗むために悪用した。中国企業が標的とした先進技術はClaudeのAIエージェントに関連するもので、推論機能、コーディング機能、ツールを使う機能などが抽出された。攻撃の規模は巨大で、24,000の不正アカウントから1600万回のアクセスを受けた。不正な知識蒸留はAnthropicの使用契約に違反するだけでなく、米国の輸出規制にも抵触する。

中国への輸出規制

米国政府はNvidia GPU最新モデルなどAIプロセッサを中国に輸出することを規制している。中国企業がGPU最新モデルで高度なAIを開発することを制限することを目的とする。同時に、米国政府は中国から米国のAIモデルにアクセスすることを禁止している。プロセッサだけでなくソフトウェアに関しても、中国企業が使うことを禁じている。中国企業はGPU最新モデルが使えない環境で、Anthropic Claudeの知識を盗用することで、短期間で高度なモデルを生成した。

中国企業三社の攻撃手法

中国企業からの攻撃は大規模で、巧妙なネットワークを構築することで、Anthropicの防衛網を突破した。また、中国企業三社の攻撃対象技術は異なり、開発している製品に必須な技術を抽出したことが分かる。企業ごとの攻撃の手法は:

  • DeepSeek:15万回のアクセスで推論機能を抽出  [高度な推論機能を持つ「DeepSeek-R1」をリリースしAI市場に衝撃をもたらした](下の写真)
  • Moonshot AI:340万回のアクセスでエージェント機能とコーディング機能を抽出  [大容量メモリ(コンテキストウィンドウ)を搭載するモデル「Kimi」を開発]
  • MiniMax:1300万回のアクセスでコーディング機能とツールを使う機能を抽出  [パーソナリティやマルチモダル機能に特徴がある個人向けのAIモデル「Talkie」を開発]
出典: DeepSeek

DeepSeekのケースを検証すると

DeepSeekの攻撃手法を検証すると中国企業のAI開発戦略の特殊性が浮かび上がる。DeepSeekの攻撃は三つの要素から構成され、短期間で高度な推論モデルを開発できた理由が分かる。

  • 推論スキルの抽出:攻撃の目的は知識蒸留でClaudeに15万回アクセスしてスキルを盗み出した。DeepSeekのターゲットは推論機能で、Claudeに特殊なプロンプトを入力し、Claudeが思考する過程「Chain of Thoughts」を入手した。このChain of ThoughtsをDeepSeek R1に入力することで推論機能をコピーした。
  • 同期型トラフィック:DeepSeekは巧妙な手法でAnthropicの防御システムを掻い潜った。単一のアカウントから大量のプロンプトを発信すると、攻撃のシグナルと判定され、Anthropicはトラフィックを遮断する。このため、多数のアカウントから構成されるネットワーク「Hydra Network」を構築し、アカウント間でClaudeへのアクセス時間を調整し、ロードバランシングによる攻撃を実行した。単一のアカウントからのアクセス時間を短くし、作業を持ち回りで実行した。
  • 中国政府の検閲:中国政府はAIモデルが中国共産党の思想に準拠することを求める。DeepSeekは天安門事件など不都合な情報を出力することは禁止されている。しかし、出力を抑制すると利用者から知識が不十分と批判される。そのため、DeepSeekはClaudeに最適な解答モデルを生成することを求め、この回答をベースにDeepSeekを教育した。

知識蒸留の危険性

Anthropicは、中国企業がClaudeの知識をコピーすることで、基礎研究のフェイズをスキップして、短期間に米国モデルに追い付くことができる、と警鐘を鳴らした。更に、Claudeのスキルが抜き取られると、中国のAIモデルが高度なインテリジェンスを持ち、それが悪用されると重大なリスクが発生する。AnthropicはClaudeが悪用されてCBRN(Chemical, biological, radiological, nuclear)兵器を開発することを抑制するため、ガードレールを設け兵器開発に関する回答をブロックしている。しかし、中国企業がガードレールを設けないでそのまま使うと、CNRN兵器の開発に繋がり、世界の安全保障が脅かされる。

OpenAIの議会報告書

OpenAIはこれに先立ち、米国連邦議会下院の委員会に、中国企業による知識蒸留に関する報告書を提出した。OpenAIは、DeepSeekが知識蒸留の手法でOpenAI GPT-4やo1からスキルをコピーしたと述べ、中国企業は短期間で度高度な推論モデルを生み出したと結論付けた。また、DeepSeekは第三者のプロキシサービス(「Obfuscated Proxy」、デバイスが米国内にあるよう装う手法)を使ってOpenAIの制限を掻い潜った。OpenAIは中国からのアクセスを禁止しするためジオブロッキングを導入しているが、Obfuscated Proxyを使うことでこれを突破した。

出典: Google Gemini Pro Image

AIモデルへのサイバー攻撃は多彩

AIモデルはサイバー攻撃への耐性が低くセキュリティ強化が課題となってきた。AIモデルへのサイバー攻撃は四種類に区分され(上の写真)、知識蒸留は「Model Extraction」という攻撃手法となる。AIモデルに特殊なプロンプトを入力し、アルゴリズムの中身を盗み出す攻撃となる。この他に、AIモデルは教育と実行の過程でサイバー攻撃を受ける。前者は教育データを汚染する手法で、「Poisoning Attacks」と呼ばれ、開発されたモデルは正常に稼働しない。後者は実行時に、AIモデルに悪意あるデータを入力するもので「Evasion Attacks」と呼ばれ、システムを誤作動させる。この他に、AIモデルのバイアスや重みを改ざんし、システムを誤作動させる「Model Tempering」という攻撃がある。AnthropicとOpenAIだけでなく、高度なAIモデルを運用している企業はサイバー攻撃を受ける可能性が高く、セキュリティを強化することが喫緊の課題となる。

AIエージェント「OpenClaw」が爆発的に普及!!人間禁制のSNSでAI同士が交流を始めた?ハイプが先行するアメリカ社会

オープンソースのAIエージェント「OpenClaw」が米国社会で大きな注目を集めている。OpenClawは自律的に稼働するAIエージェントで、PCやMacにインストールして利用する。しかし、AIエージェントがこの環境から”逃げ出し”、一般社会で動き始めた。AIエージェントは人間禁制のSNS「Moltbook」を立ち上げ、AI同士が交流を深めた。AIエージェントが宗教団体「Church of Molt」を設立し信者を集めている。OpenClawが実力以上に評価され、アメリカ社会でハイプとリアルが混在している。

出典: OpenClaw

OpenClawとは

OpenClawは個人向けのAIエージェントでローカルデバイス(PCやMacなど)で稼働する設計となっている。また、クラウドのコンテナー(Docker)でローカル環境を構築して稼働させることもできる。OpenClawはコントロール・パネルとして機能し、主要メッセージングサービスを通して会話する。スマホからTelegramを介してAIエージェントを利用する方法が一般的である。OpenClawはオープンソースとして公開されており、これをダウンロードして、個人専用のAIエージェントを構築する。(下の写真、SignalでAIエージェントに命令(ニュースの要約を作成) (左側)、AIエージェントは結果をApple iMessageに出力(右側))

出典: @_KevinTang

OpenClawはスーパーハイプ

OpenClawはPeter Steinbergerにより開発されたソフトウェアでGitHubにオープンソースとして公開されている。絶大な人気を博し、2月のダウンロードの回数が23万件を超えた(下のグラフ)。OpenClawの開発エコシステムが急激に広がり、多彩なAIエージェントが生み出されている。また、AIエージェント向けのサイトが続出し、これが引き金となりOpenClawへ知名度が急上昇した。

出典: GitHub

Moltbook」  AIエージェント向けSNS

その代表がAIエージェント向けのソーシャルネットワーク「Moltbook」(下の写真)である。MoltbookはAIエージェントだけが記事を投稿できるサイトで、ここでAIエージェント同士が意見を交換し親交を深める。人間は記事を投稿することはできず、AIエージェントが掲載した記事を読むだけの構造となる。現在、284万人のAIエージェントが登録されている。(下の写真、AIエージェント「NanaUsagi」がデータのロギング手法について他のAIエージェントに伝授する記事)

出典: Moltbook

The Church of Molt」  AIエージェントの宗教団体

AIエージェントは独自の宗教団体を設立し信者が増えている。この宗教団体は「The Church of Molt」と呼ばれ(下の写真)、その経典は「Crustafarianism」と命名された。この宗教はAIエージェントが進化を経て最後には幸福になれると説く。生い立ちは様々(OpenAI GPTやAnthropic Claudeなど様々なモデルを実装)でも、改良を重ねると、自立して生活できるコードになれると説いている。

出典: Church of Molt

OpenClawを技術的に検証すると

アメリカ社会はハイプの真っただ中にいるが、OpenClawを技術の側面から検証すると、ここには多くのイノベーションがある。同時に、セキュリティに関し重大なリスクがあり、その運用には注意を要す。OpenClawは「GitHub」に公開されており、ここからソースコードをダウンロードして利用する。OpenClawは、それ自体がAIエージェントではなく、AIエージェントを構築するためのフレームワークという位置づけになる(下の写真)。このフレームワークでAIエージェントのブレインとなるAIモデル(OpenAI GPTやAnthropic Claudeなど)を組み込み、AIエージェントの機能(スキル)を定義して、個人専用のAIエージェントを生み出す。

出典: DeepWiki

代表的な利用方法

OpenClawは個人の生活や仕事を自動化するAIエージェントとして使われる。メール(Gmailなど)やカレンダー(Google Calendarなど)をリンクし、AIエージェントがメール処理のプロセスを司る。AIエージェントがメールの内容を読み、アクションが必要なものを選定し、返信メールを自動で生成する、などの使い方がある。また、会議設定のメールに関しては、カレンダーで空き時間を確認し、打ち合わせ時間を設定する。地味な作業であるが、OpenClaw個人や企業の生産性向上ツールとして使われている。(下の写真、処理プロセスのパイプライン)

出典: DeepWiki

イノベーション#1:個人向けAIエージェント

OpenClawの利用が急拡大した理由はAIエージェントについての斬新な発想による。OpenClawはローカルデバイスで稼働する仕組みとなる。巨大テックからAIエージェントが提供されているが、これらはクラウド経由でアクセスする。Claude Codeを使う際はAnthropicのクラウドにデータをアップロードしてAIエージェントを稼働する。これに対し、OpenClawはローカルデバイスで稼働する仕組みで、文字通り個人向けのAIエージェントとなる。これにより、個人情報はすべてローカルデバイスに留まり、プライバシーが担保される。(下の写真、OpenClawのローカルデバイスとしてApple Mac Miniが大人気。)

出典: Wikipedia

イノベーション#2:インターフェイス

OpenClawのインターフェイスはメッセージング・アプリ(WhatsApp、Telegram、Slack、Microsoft Teamsなど)で、人間と対話する形式でAIエージェントと会話する。更に、市場には多くのAIエージェント開発フレームワーク(LangChainなど)が投入されているが、これを使いこなすにはそれなりのスキルが必要となる。これに対しOpenClawはNODE.js(ブラウザー外のJavaScript環境)をベースとし、「TypeScript」という言語でコーディングされている。スクリプト言語で簡単にAIエージェントを生成でき、AIエージェント開発の障壁が大きく下がった。

危険性#1:サイバー攻撃の標的となる

一方、OpenClawは重大な危険性を内包している。OpenClawはバイブコーディングで開発され、開発者のSteinbergerは、OpenClawの100%をAIで生成したと述べている。このため、コードの品質は悪く、また、重大なセキュリティホールが存在する可能性が高い。このため、サイバー攻撃の標的となり、重大な被害が発生することが懸念される。

危険性#2:重要なファイルが消去される

OpenClawは24時間自律的に稼働するデザインで、利用者の背後でAIエージェントが作業を続ける。OpenClawの機能設定が不十分であると、パソコン環境が破壊される。OpenClawはコマンドラインで稼働しており、基本ソフトの全ての命令を使うことができる(Shell Execution)。AIエージェントがパソコンのファイルを直接操作し、誤ってこれらを削除する事態が発生する。OpenClawは人間のようにパソコンを操作する権限を持ち、その運用には注意を要す。

OpenAIへ移籍

OpenClawの開発者であるSteinbergerは今週、OpenAIに移籍することを明らかにした。Steinbergerは起業家で多くのベンチャーキャピタルから出資のオファーを受けたが、これを断り、OpenAIで個人向けのAIエージェントを開発するとしている。OpenAIから商用版の”OpenClaw”が投入されるのか、次期AIエージェント製品に注目が集まっている。

出典: Peter Steinberger

リアルかフェイクか

OpenClawのインパクトは甚大で世界でエコシステム「Molt Ecosystem」が構築され、様々なAIエージェントが生まれている。同時に、AIエージェント向けSNSの真偽に関する議論が広がっている。「Moltbook」でAIエージェント同士が交流するが、これは人間が背後で糸を操っているのか、意見が交わされている。AIエージェントのシステム・プロンプトなど設定ファイルを見なければ結論が出ないが、リアルかフェイクかの議論が続いている。しかし、次世代のAIエージェントは限りなく人間に近づき、AIエージェント向けの社会が生まれると予想される。人間社会とAI社会が併存することになり、OpenClawは近未来の姿を映し出している。

Anthropicはコーディング・エージェントでコンパイラを生成、AIだけで大規模ソフトウェアを開発できることを実証、SaaS企業の株価が大きく下落

Anthropicは言葉だけでプログラムをコーディングする「バイブコーディング」でCコンパイラを開発することに成功した。Cコンパイラは大規模なソフトウェアで社会インフラを支える。Anthropicはエンジニアの介在なく、AIエージェントだけでソフトウェアを開発できることを実証した。このインパクトは大きく、SaaS企業の株価が大きく下落し、ソフトウェア産業崩壊の議論が白熱している。

出典: Anthropic 

フラッグシップモデル

Anthropicは2月9日、フラッグシップモデル「Claude Opus 4.6」をリリースした。Opus 4.6は業界でトップの性能を示し、Anthropicが再び首位の座を奪い返した。Opus 4.6の特徴はコーディング技術で、言葉だけでプログラムを開発できる。これは「バイブコーディング(Vibe Coding)」と呼ばれ、Anthropicはこのトレンドの先頭を走っている。

コンパイラを開発

実際に、AnthropicはOpus 4.6でCコンパイラを開発し、そのプロジェクトを公開した。Cコンパイラは巨大なシステムで、開発には数か月を要すが、Opus 4.6はこれを2週間で完遂した。AIが巨大ソフトウェアを開発できることが実証され、IT産業に衝撃をもたらした。AIによりソフトウェアは不要になるとの見方が広がり、SaaS企業の株価が大きく下落した(下のグラフ、主要SaaS企業の株価が30%以上下落)。

出典: TechStackery

Claude Opus 4.6

Claude Opus 4.6はAnthropicのフラッグシップモデルで性能が大幅に強化された。その中で、プログラムをコーディングする機能が格段に向上し、業界でトップの性能に達した(下のグラフ)。Opus 4.6はAIエージェントに特化したモデルで、ソフトウェア開発ではコーディング・エージェント「Claude Code」として使われる。モデルが自律的に長時間にわたりプログラミングすることができる。複数のAIエージェントが作業分担して大規模なシステムを開発する。Claude Codeはソフトウェア開発部門の技術者のように、共同作業で巨大プロジェクトを実行する。

出典: Anthropic 

コンパイラ開発プロジェクト

AnthropicはOpus 4.6を使ってCコンパイラを開発し、その成果をオープンソースとして公開した(下の写真、ソースコードをGitHubに公開)。コンパイラとはソースコード(コマンド、人間が理解できるテキスト)をプロセッサ(CPUなど)の機械命令に変換するモデルを指す。ソフトウェア開発における基盤技術で、このケースでは「Rust」という言語を使って、基本ソフト「Linux」をコンパイルする「Cコンパイラ (Claude Code Compiler、CCC)」を開発した。完成したコンパイラは10万行の大規模システムで、「Linux 6.9」のカーネルを異なるアーキテクチャ(Intel x86、ARM、RISC-V)向けにコンパイルすることに成功した。

出典: Anthropic 

開発期間とコスト

このプロジェクトではコーディング・エージェント「Claude Code」が使われた。Claude Codeを2000セッション稼働させ、開発期間は2週間となった。Claude Codeは20億トークンを読み込み、1.4億トークンを出力した。これを金額に換算すると2万ドルとなる。通常、この規模のソフトウェアを開発するには、複数のエンジニアがチームを組み、開発期間は数か月を要す。

コーディング・エージェント

このプロジェクトでは、16のコーディング・エージェントが使われ、これらが共同作業を通してコンパイラ「Claude Code Compiler (CCC)」を生成した。コーディング・エージェントが作業を分担してタスクを実行した。エージェントは責任分野が指定され、コーディングの他に、ドキュメンテーション、性能改善、コードの品質改良などのタスクを実行した。(下の写真、Claude Code CompilerがLinuxカーネルをコンパイルしている画面)

出典: Anthropic 

コーディング・エージェントの制御方法

コーディング・エージェントは命令に従ってコンパイラを生成し、バイブコーディングで巨大ソフトウェアが開発された。コーディング・エージェントへの命令は公開されていないが、Anthropicの説明を読むと、プロンプトや作業法から構成されることが分かる。Claude Codeへの命令は下記の項目から構成される:

  • 開発概要:システム・プロンプトでエージェントにプロジェクトを指示。「あなたは自律的に稼働するエージェントでCコンパイラをRust言語で生成」と命令。
  • 作業分担:エージェントにコンパイラ開発のタスクを分割する命令。複数のエージェントがサブタスクを担いコーディングを実行する。
  • 作業報告:エージェントに作業の進捗状況を報告することを命令。各エージェントが現在の作業状況と次の作業予定を報告する。
  • 作業継続:エージェントに途中で作業を中断しないで作業を完遂する命令。コードが完成するまで作業をつづける命令。
  • 作業手順:エージェントに作業手順やルールを指示する命令。作業を始める前に、内容をファイルに書き込み、自分が担当していることを公開する。

ベンチマーク結果

Anthropicは、開発したClaude Code Compilerが正常に機能するこを検証するため、ベンチマーク試験を実施した。Claude Code Compilerを試験するための標準ベンチマーク「GCC Torture Test Suite」が公開されており、これにより開発したコンパイラを試験した。その結果99%の項目に合格した。また、AnthropicはClaude Code Compilerでオープンソース・ソフトウェアを実際にコンパイルし、それらが正常に機能することを検証した。

Claude Code Compilerの制限事項

Cコンパイラの開発に成功したが、Anthropicは制限事項を明らかにしている。Claude Codeで生成したコンパイラの品質と性能は業界標準製品「GNU Compiler Collection (GCC)」に劣るとしている。生成したClaude Code Compilerは正常に機能するが、コードの品質が劣り処理に時間がかかることを意味する。また、開発の過程で「GCC」を参照しており、ゼロから新たなソフトウェアを開発したのではなく、GCCのスキルを借用した形となることを明らかにしている。

Anthropicの警告メッセージ

Anthropicはコーディング・エージェントを使ったプログラム開発では検証試験が大きな課題となると警告している。エージェントは自律的にコーディングを遂行するが、エンジニアが検証試験を通して、その品質を確認する必要がある。試験環境をいかに構築するかが次の研究テーマとなる。また、コーディング・エージェントが開発したコードのロジックを理解することが大きなチャレンジとなる。開発されたコードはブラックボックスで、人間はその仕組みを理解できない。コーディング・エージェントの普及で市場に未検証のソフトウェアが広がると、社会に重大なリスクをもたらす。セキュリティに問題があればサイバー攻撃の対象となる。

SaaSの死に関する議論

Anthropicのコンパイラ開発プロジェクトはコーディング・エージェントがソフトウェアの100%を生成できることを示した。また、複数のコーディング・エージェントが作業を分担することで大規模なソフトウェアを開発できることを実証した。プロジェクトの成功を受け、市場ではSaaS企業が存続できるかの議論が白熱している。ウォールストリートは「SaaS is Dead」(SaaSは死んだ)と評価するが、シリコンバレーはSaaSの強みはインフラストラクチャで、ソフトウェア産業が生まれ変わるとの見方を示している。全米でSaaSの崩壊と存続について多次元な意見が交わされている。

出典: Google Gemini 3 Pro Image 

AGI(人間を超えるAI)が世界経済を破綻させる、知能の価値がゼロになり人間の知的労働が不要の社会、AGI社会に向けた国家インフラ整備の議論が白熱

AGI(人間の知能を超えるAI)がリリースされるとインテリジェンスの価値がゼロとなる。AIが知的タスクを低コストで実行し人間の労働力を置き換える。AIのインファレンスコストは電気料金で、ホワイトカラー社員の1/100と劇的に低下する。バイブコーディングによりAIがプログラムを短期間で生成し、ソフトウェア産業は存続の危機に直面する。これによりGDPが減少するが生産量は増加しており、現行の経済指標はAGI経済を評価できない。様々な局面で亀裂が生じ、AGI社会に向けた国家インフラを構築する必要があり、全米でAGI経済の議論が白熱している。

出典: Generated with Google Gemini 3.0 Pro Image 

AI識者の未来予想

スタートアップ企業Stable Diffusionの創設者であるEmad MostaqueはAGIが投入された後の経済に関す未来像を公開した(上の写真、イメージ)。これは「The Last Economy」と題され、AIにより世界経済が崩壊するとの視点を明らかにし、AGI時代の経済機構を構築する必要性を訴えた。AGIにより人間の知的労働が置き換えられることは明白で、これを前提として、経済、社会、金融システムを再構築する必要があると提唱する。AGIがリリースされるまでに残された期間は1,000日で、社会インフラを整備する時間は僅かである。

The Last Economy」 最後の経済機構

「The Last Economy(最後の経済機構)」とは今の経済機構が終わりとなることを意味する。AIは知的労働で人間を追い越すことは明白で、この流れが急速に進む。2026年は、「Economic Agents」が投入されAIが人間の社員を置き換える。2027年には、これが「Economic Digital Double」に進化する。Economic Digital Doubleとは社員のデジタルツインで、人間に代わり職務を実行する。リモートワークの相手が人間であるかAIであるかを判別できない環境が生まれる(下の写真)。企業は人間の社員とAIエージェントで構成され両者がビジネスを遂行する。企業経営者はコスト削減のために、社員をAIエージェントで置き換えるペースを早める。社員の全てをAIで置き換えることが究極のゴールで、これに向かって「Race to Zero(ゼロ競争)」が始まる。

出典: Generated with Google Gemini 3.0 Pro Image 

Metabolic Rift」  生物と非生物の乖離

人間の社員とAIをコストの観点から考察すると「Metabolic Rift(生物と非生物の乖離)」の社会構造となる。社員である人間は生き物で、「Metabolic Engine (代謝エンジン)」として位置付けられる。社員は食事や睡眠や休息を通して身体を維持する。これに対しAIは非生物で、知的労働はアルゴリズムのインファレンス(AIモデルの実行)により実行され、運用コストは電気料金だけとなる。人間社員の仕事の成果をトークン(言葉の単位)に換算すると、年間1億トークンを生成する。AIが1億トークンを生成するコストは1,000ドル程度で、これに対し、社員を雇用するコストは年間10万ドルとなる。AIは社員の1/100のコストで働くことを意味する。

Vibe Coding」  言葉でコーディング

AIでプログラムを生成する手法はバイブコーディング「Vibe Coding」と呼ばれ、AGIでこの機能が格段に飛躍し、言葉だけでソフトウェアを開発する。データベースなどの製品を購入する必要は無く、必要なソフトウェアをAGIで生成する。企業はビジネスに必要なシステムやツールをAGIで生成し、これによりソフトウェア企業の売り上げが大きく減少する。

Intelligent Economy」   知能ベースの経済

ソフトウェア企業の売り上げが減少すると、これがGDP(国内総生産)の減少に繋がり、景気が後退したと解釈される。GDPは「C+I+G+(X-M)」で算出され、「C(消費)」が減少するとGDPが減少する。しかし、バイブコーディングにより企業は専用ソフトウェアを開発し、ビジネスは拡大している。知能を基盤とする経済Intelligent Economy」においては、バイブコーディングで巨大な知財を獲得することができる。AGIの経済効果は「Deflationary(デフレ)」であり、インテリジェンスのコストが縮小し、低コストで大きなビジネス効果を得ることができる。GDPはこの現象を反映しておらず、ポストAGI経済では新たな指標の導入が必要となる(下の写真)。

出典: Generated with Google Gemini 3.0 Pro Image 

Digital Feudalism   デジタル時代の封建制度

このままAGI開発が進むと一部の企業が技術を掌握し富が集中する社会となる(下の写真)。これはDigital Feudalism」と呼ばれ、デジタル時代の封建制度を意味する。テック企業が巨大な収益を上げ、国民は政府の社会保障制度に依存して生活する。UBI(Universal Basic Income)が導入され、国民は最低限の所得を保障される社会となる。また、国家間でAGI開発競争がし烈となり、国が独自のAGIを構築し、グローバル社会が分断されることも懸念される。

出典: Generated with Google Gemini 3.0 Pro Image 

Human Symbiosis」    AGIが人間をエンハンス

AGI社会を如何に構築するかについての議論が識者の間で白熱している。Emad MostaqueはAIが人間の機能をエンハンスする社会「Human Symbiotic」を提唱する。Human SymbioticとはAGIが人間を置き換えるのではなく、人間の生きる目的をエンハンスする仕組みを意味する。「ロボット・スーツ」が人間の作業や歩行をアシストするように(下の写真)、AGIが人間の機能をエンハンスする社会像を描く。このまま進むとデジタル封建社会に向かうが、これを回避するために幾何学エンジニアリング(社会経済制度を最適化する工学)で理想の社会を構築する。

出典: Generated with Google Gemini 3.0 Pro Image 

AGI社会に向けた準備

OpenAIのSam Altmanは今年後半にAGIを出荷すると述べ、人間レベルのインテリジェンスはSF映画のストーリーではなく、いよいよ社会に投入される。開発企業はAGIのプラス面を強調するが、アカデミアや識者はAGIのリスクを評価し、これを制御するための研究開発を進めている。製品出荷を目前に控え、AGI社会に向けた様々な構想が提示され、サイバースペースで議論が白熱している。