カテゴリー別アーカイブ: Anthropic

Anthropicのコーディング・エージェント「Claude Code」のソースコードが流出、人気製品のAI先端技術が明らかになる、競合企業の厳しい追い上げが予想される

Anthropicのコーディング・エージェント「Claude Code」のソースコードが流出するというインシデントが起こった。Claude CodeはAIエージェント技術で、企業秘密が世界に開示された形となった。流出したソースコードにはエージェントを構成する基軸技術が含まれており、Claude Codeの人気の秘密が詳らかになった。中国企業を含む競合企業は、この情報を参照し、エージェント機能を強化し、Anthropicをキャッチアップすることを目論む。

出典: Anthropic

Claude Codeとは

「Claude Code」はコーディング・エージェントで、人間のエンジニアのように、自立してソフトウェア開発を実行する。Claude Codeは人間の指示に従って、長時間にわたりプログラミングを実行する。Claude Codeのブレインはフロンティアモデルで、ハイエンドモデル「Opus 4.6」を組み込んで利用する構成となる。

インシデントの概要

3月31日、コーディング・エージェント「Claude Code」のソースコードすべてが流出した。ソースコードが格納されているファイルを誤って、アップデートファイルとして一般に公開したことによる。これにより、1,906のファイルに格納されている512,000行のソースコードが流出した。セキュリティ研究者によりリークが指摘され、その後、流出したファイルがインターネットで拡散した。

Claude Codeの位置付け

リークしたソースコードにはフロンティアモデル「Claude」の重みなどは含まれておらず、コーディング・エージェント「Claude Code」の部分に限定され、最悪の事態は避けられた。Claude CodeはAIエージェントのフレームワークで、ここにClaude OpusなどAIモデルを組み込んで使用する。クルマに例えると、Claude Codeはシャシの部分で、ここにClaude Opusなどのエンジンを搭載して使用する(下のイメージ)。流出したのはシャシの部分となる。

出典: Generated with Google Gemini Pro 3.1 Image

エージェントの構造が分かる

流出したソースコードにより、Claude Codeの構造が明らかになり、そこには数多くのイノベーションがあることが判明した(下のイメージ、Claude Codeの構造)。Claude Codeは核となる「コアシステム(Core System)」と「メモリ管理システム(Memory Subsystems)」で構成される。また、注目すべき点は、今までに公開されていない機能が搭載されていることだ。その代表は「KAIROS」で、システムの背後で常に動いており、エージェントを管理する。更に、「セキュリティ(Security &Defenses)」機能として、他社がClaude CodeにアクセスしてIPを盗用する「知識蒸留(Knowledge Distillation)」という攻撃をブロックする機構が搭載されている。

出典: Generated with Google Gemini Pro 3.1 Image

コアシステム

Claude Codeのノウハウは「コアシステム」に実装されている。その中心は「Query Engine」と呼ばれ、エージェントを制御する司令官となる。Query Engineは、プロンプトから利用者の意図を把握し、コンテキスト・ウィンドウを管理し、タスクの流れを制御する。また、ツールを利用するためのモジュールとして「Tool System」が重要な役割を担う。Claude Codeは利用者のワークステーション(PCやMacなど)を操作する機能があり、ファイルにアクセスし、基本ソフトを操作する命令を実行する。このオペレーションを「Tool System」が管理し、安全に実行するための様々な工夫が実現されている。

今までに公開されていない機能

ソースコードのリークでClaude Codeは公開されていない機能を数多く搭載していることが判明した。その代表が「KAIROS」でバックグランド・エージェントとして機能する。KAIROSはClaude Codeの背後で常に稼働しており、運用をモニターし、必要に応じて利用者の指示なく自律的に問題を解決する。

オープンソースとなったわけでは無い

Claude Codeのソースコードが流出し、エンジニアや企業はこれを使うことができる状態となったが、法的に厳しい制約があるので注意を要す。Claude Codeのソースコードが流出したが、オープンソースとなったわけでは無い。Anthropicは流出したソースコードを利用することは許諾しておらず、個人や企業はこれを使うことはできない。ソースコードを改造したり、これを製品に組み込んで再配布することは違法行為となる。

GitHubへの要求

ソースコードが流出したと同時に、これらがGitHubなどのリポジトリに掲載され、自由にダウンロードできる状態となった(下のイメージ)。Anthropicは「デジタルミレニアム著作権法(Digital Millennium Copyright Act、DMCA)」を根拠に、GitHubなどのサービス・プロバイダに、これらミラーサイトやフォークサイトを閉鎖するよう求めた。ソースコードの知的財産権はAnthropicに帰属し、GitHubなどがこれらをサイトに掲載することは違法行為となる。

※今でもミラーサイトやフォークサイトにソースコードが掲載されている。これらをダウンロードするとここにウイルスなど危険なコードが含まれている可能性が高い。不審なサイトからClaude Codeのソースコードを入手するのは極めて危険!!

出典: Generated with Google Gemini Pro 3.1 Image

競合企業の製品開発

GitHubなど主要リポジトリでソースコードをダウンロードすることはできないが、企業や個人は既にソースコードを入手している可能性は高い。企業や個人はソースコードを改造して製品を開発することは違法行為であるが、ソースコードを解析しClaude Codeのイノベーションを理解することはその限りでない。競合企業はこれらの技法を参考に、これらを独自の手法で実装し、高機能なコーディング・エージェントを開発することができる。

中国企業がキャッチアップ

中国企業は一斉にClaude Codeのソースコードにアクセスし、Anthropicの最新技術を学習しているとされる。中国企業は知識蒸留などの手法で米国先進モデルのノウハウを吸収してきたが、ソースコードの流出で、知識を合法的に取得できる。特に、「KAIROS」など非公開の機能が明らかになり、これらがエージェント開発におけるヒントとなる。Claude Codeのソースコードの流出で米中間のAI技術格差が縮まることになる。

AnthropicはAGIが社会にもたらすインパクトを研究する組織「Anthropic Institute」を設立、AGI社会へスムーズに移行することを目的とする

AGIのリリースが目前に迫るなか、AnthropicはAGIが社会にもたらすインパクトを研究する組織「Anthropic Institute」を開設した。AGIは社会に多大な恩恵をもたらすと期待されるが、同時に、社会構造が根本から変わり大きな混乱が予想される。Anthropic Instituteは同社のフロンティアモデルをベースに、技術・社会・経済の観点からこれを検証し、責任あるAGI開発を実施する。AGI社会にソフトランディングすることが究極のゴールとなる。

出典: Anthropic

Anthropic Instituteとは

Anthropic InstituteはAGIのインパクトを研究するシンクタンクとして位置付けられる(下の写真、イメージ)。共同創設者であるJack Clarkが代表を務め、技術から経済まで幅広い分野の専門家から成るチームで構成される。「Frontier Red Team」はAGIを技術の観点から検証する。「Societal Impact Team」はAGIの利用方法など社会に及ぼすインパクトを検証する。「Economic Research Team」はAGIが雇用や経済に与える影響を継続して監視する。(AnthropicはAGIという用語は使わず、これを「Powerful AI」と表現する。ここでは用語を統一するために「AGI」と記載する。)

出典: Generated with Google Gemini 3.1 Pro

研究対象エリア

Anthropic InstituteはAGI社会で発生が予測される問題を中心に研究を進める。AGIに関して様々な問いが投げかけられており、これらに回答することを主題とする。対象領域は:

  • 雇用と社会:AGIは雇用や社会にどのようなインパクトを与えるか
  • リスクと耐性:AGIはどのようなリスクをもたらすか、また、社会はこれらのリスクに耐えることができるか
  • 価値観:AGIの価値をどう評価するか
  • 回帰型システム:AGIが自己の機能を改良する技術(Recursive Self-Improving)をどう制御するか

大規模フィールド調査

Anthropic InstituteはAIに期待する機能について大規模な調査を実施した(下の写真)。159か国の81,000人の利用者を対象に、AIをどのように活用しているか、また、AIをどのように使いたいかにつて、包括的なデータを収集した。この調査ではAIモデルが「調査エージェント (Anthropic Interviewer)」となり、利用者と対話する形式でデータを収集した。更に、調査エージェントが収集したデータを解析し、それを特性に基づいて分類・階層化した。フィールド調査の全てのプロセスを調査エージェントが実行した。

出典: Anthropic

AIモデルに期待すること

調査ではAIモデルに期待することを質問し、その結果を9のカテゴリーに分類した(下のグラフ)。そのトップが、「Professional Excellence」で、AIモデルをルーチン業務に適用し、専門分野で才能を発揮することを期待している実態が明らかになった。期待していることの主要項目は:

  • Professional Excellence (18.8%):専門職で才能を発揮、ルーチン作業をAIモデルで実行し、空いた時間で意味のある仕事を遂行
  • Personal Transformation (13.7%):健康やメンタルヘルの改善、AIで自分自身を理解しフィジカルヘルスやメンタルヘルスを改善
  • Life Management (13.5%):日々のスケジュール管理、AIを秘書として使い、日程管理など生活や仕事をオーガナイズ
  • Financial Independence (9.7%):経済的な自立、AIでビジネスを立ち上げ、収益をあげ、仕事に縛られない生活をすること
  • Societal Transformation (9.4%):グローバルな問題を解決、AIで病気、貧困、地球温暖化問題などを解決
  • Learning & Growth (8.4%):パーソナル・チューター:AIを個人教師として利用し、新しい分野のスキルを獲得
出典: Anthropic / Generated with Google Gemini 3.1 Pro

何を恐れているか

調査エージェントはAGIに関する懸念事項や切迫する恐怖感について質問した。AGIがリリースされると社会は劇的に変わり個人生活が激変する。人々は将来を予見できなくなり、多大な恐怖感を抱いていることが明らかになった。その主なものは:

  • Job & Economic Displacement:AIにより職を奪われること
  • Cognitive Atrophy & Loss of Autonomy:AIにより人間は考えることを停止し、思考能力が退化すること
  • Unreliability & Misinformation:AIが出力する情報は誤りを含み、人間がこれをチェックす作業が大きな負担となる
  • Loss of Meaning & Creativity:AIにより人間の創造性の価値が下がり、存在感が低下する
  • Wellbeing & Dependency:AIと会話する時間が長くなり、社会的に孤立する。人間の代わりにAIを友人として選ぶという異常事態

AGIトラスト

Anthropic Instituteは技術・社会・経済に関する検証チームから成るシンクタンクとして位置付けられ、AGIの開発や運用を安全に実行するための組織となる。この組織や手法が米国におけるAGIトラストのテンプレートとして捉えられる。米国連邦政府はAI規制を撤廃し、企業がフリーハンドで先進技術を開発する政策を取る。米国では法令による規制ではなく、民間企業がAGI開発と運用を責任もって遂行する自主規制の路線が取られる。AGIにおいてはAnthropic Instituteがその先端を進み、AI業界がその成果に着目している。

AIがセキュリティ企業の製品を置き換える!?Anthropicはソフトウェアのセキュリティを強化する機能「Claude Code Security」を公開、AIがコードベースをスキャンし脆弱性を検知

Anthropicはソフトウェアのセキュリティを強化する機能「Claude Code Security」をリリースした。これは、コーディング・エージェント「Claude Code」に搭載された機能で、コードベースをスキャンしてセキュリティの脆弱性を洗い出す。また、Claude Code Securityは、セキュリティホールを改修するためのコードを生成する。既に、AnthropicはClaude 4.6でオープンソースをスキャンして、500件のセキュリティホールを検知している。Claude Code Securityによりセキュリティ製品が不要になり、主要セキュリティ企業の株価が一様に下落した。

出典: Anthropic

Claude Code Securityとは

「Claude Code Security」はコーディング・エージェント「Claude Code」に実装されている。Claude Codeの初期画面で「Scan Code」のボタンをクリックして起動させる(下の写真)。Claude Code Securityはコードベースをスキャンしてセキュリティの欠陥や弱点(脆弱性)を検知して、これを修正するための修正コード(パッチ)を生成する。エンジニアがこれを検証してソフトウェアに適用するプロセスとなる。Claude Code Securityはベータ版として一部の研究者向けに公開され評価作業を進めている。

出典: Anthropic

従来のセキュリティ手法

コードベースをスキャンしてセキュリティの脆弱性を検知するツールは幅広く使われている。「SonarQube」や「Checkmarx」などがその代表で、コードベースをスキャンして安全性に関する問題点を見つけ出す(下の写真)。これらは開発中のコードベースを検証し、セキュリティに関する問題点を洗い出すために使われる。その手法は「Static Application Security Testing」と呼ばれ、事前に設定したルールに準拠してセキュリティホールを検知する仕組みとなる。

出典: SonarQube

Claude Code Securityの手法

これに対し、Claude Code SecurityはAIモデルをベースとし、インテリジェントな手法でセキュリティの脆弱性を検知する。Claude Code Securityは人間のようにコードを読み、その構造や意味を理解する。これにより、コンテクストの視点から問題点やエラーを見つけ出す。シンタックスにエラーがなく、正常にコンパイルでき、スペック通り機能するコードでも、コードのロジックを検知し問題点を見つけ出す。

Claude Code Securityが脆弱性を検知した事例

EコマースサイトでClaude Code Securityがセキュリティホールを検知した事例(下の写真)。このサイトはハッカーがデータに攻撃命令「Command Injection」を挿入しシステムの制御を奪う脆弱性がある。コードが外部ウェブサイトのデータを読み込む構造となっており、ハッカーはデータにShell Command(基本ソフトを操作する命令)を挿入すると、このコマンドが実行されEコマースサイトの制御を奪われる。

出典: Anthropic

プルリクエストとマージ

Claude Code Securityはセキュリティの脆弱性を埋めるためにパッチを生成する。このパッチをそのままソフトウェアに適用するのではなく、人間がこれを検証して、正しいことを確認して実施するプロセスとなる。ソフトウェア開発の観点からは、Claude Code Securityが修正コードを生成して、チームメイト(人間)にこの検証を依頼する。これは「プルリクエスト(Pull Request)」と呼ばれ、この過程をClaude Code Securityが担う。人間がリクエストされたコードを検証し、正しいことを確認して、メインのコードに「マージ(Merge)」するプロセスとなる。最終判断はあくまで人間で、修正コードの責任は人間が担う。(下の写真、Claude Code Securityが生成したパッチ。上述の「Shell Command」を実行する命令が消去され、ハッカーは悪意あるコマンドをインジェクトしても、それはテキストとして処理され実行されない。)

出典: Anthropic

セキュリティ企業の株価下落

AnthropicがClaude Code Securityをリリースした直後に、米国の主要セキュリティ企業の株価が下落した(下のグラフ)。セキュリティ大手のCrowdStrikeは8%、Zscalerは11%、下落した。現行のセキュリティ製品はルールベースで脆弱性を検知するが、Claude Code Securityは人間のようにコンテンツを理解してセキュリティホールを埋める。投資家の間で現行モデルがClaude Code Securityに置き換えられるとの懸念が広がっている。

出典: SeekingAlpha

セキュリティ企業の反論

これに対し、セキュリティ企業はClaude Code Securityは市場の一部をカバーするだけで、その影響は限定的であると反論している。セキュリティの対象分野は広く、Claude Code Securityは「Application Security」に区分される。これは、ソフトウェアなどアプリケーションのセキュリティを対象とする。この他に、サイバー攻撃をリアルタイムで検知する「Endpoint Security」、ファイアーウォールなど「Network Security」、認証管理など「Identity Management」など幅広い分野でセキュリティ製品が活躍している。Claude Code Securityは製品ポートフォリオのごく一部で、影響の範囲は限られると主張する。

シンメトリックな脅威

サイバー攻撃とその防御は「シンメトリックな脅威(Symmetric Threats)」と呼ばれる。サイバー攻撃ではAIを悪用し、システムの脆弱性を見つけ出し、そこから侵入してシステムの制御を奪う。これに対し、防御側はAIを活用し、システムをスキャンして脆弱性を洗い出し、問題個所を修正する。また、AIでサイバー攻撃のシグナルを検知し、侵入を食い止める。攻撃側と防御側で技術競争が進む中、防御側は攻撃者より一歩先行することで攻撃を食い止める。このため、高度なAIセキュリティを開発することが国家安全保障にとって至上命題となる。

中国企業がAnthropicのAI技術を盗用、DeepSeekなどが「知識蒸留」という手法でClaudeの推論機能を抽出、短期間で高度なAIモデルを開発できた理由が判明

Anthropicは中国企業からAIモデルの知識を盗み出す攻撃を受けたことを明らかにした。DeepSeekなど中国企業は「知識蒸留(Knowledge Distillation)」という手法で、Anthropicの先進モデル「Claude」から推論機能などを抽出した。米国政府はGPUプロセッサを中国に輸出することを制限しているが、中国企業はClaudeの知識を抽出することでこの規制を迂回した。攻撃手法は巧妙で、中国企業は巨大ネットワークを構築し、多数のアカウントから発信元情報(IPアドレス)を偽り、Anthropicのサーバにアクセスした。DeepSeekが短期間で高機能なAIモデルを開発し米国市場に衝撃を与えたが、Anthropic Claudeのスキルを盗用することでこれを達成したことが判明した。

出典: Anthropic

攻撃の概要

Anthropicは2月23日、中国企業DeepSeek、 Moonshot、MiniMaxから「知識蒸留(Knowledge Distillation)」という手法で大規模な攻撃を受けたことを発表した。これら企業は、Anthropic Claudeから不正な手法で知識を蒸留(Illicit Distillation)し、AIモデルの開発で利用した。知識蒸留はAI開発で一般的に使われる技法であるが、他社の技術を抽出することは違法行為となる。

知識蒸留とは

知識蒸留は大規模モデルのスキルを抽出し、それを小規模モデルに転移し、短時間・低コストでAIモデルを開発する手法となる(下の写真)。AI開発で幅広く使われており、Anthropicのケースでは、ハイエンドモデル「Opus」の知識を知識蒸留の手法でローエンドモデル「Haiku」に転移した。HaikuはOpusの多くのスキルを修得し、モデルの開発を短時間・低コストで達成した。

出典: Jianping Gou et al.

不正な知識蒸留

これに対し中国企業三社は、知識蒸留の手法を、先進技術を盗むために悪用した。中国企業が標的とした先進技術はClaudeのAIエージェントに関連するもので、推論機能、コーディング機能、ツールを使う機能などが抽出された。攻撃の規模は巨大で、24,000の不正アカウントから1600万回のアクセスを受けた。不正な知識蒸留はAnthropicの使用契約に違反するだけでなく、米国の輸出規制にも抵触する。

中国への輸出規制

米国政府はNvidia GPU最新モデルなどAIプロセッサを中国に輸出することを規制している。中国企業がGPU最新モデルで高度なAIを開発することを制限することを目的とする。同時に、米国政府は中国から米国のAIモデルにアクセスすることを禁止している。プロセッサだけでなくソフトウェアに関しても、中国企業が使うことを禁じている。中国企業はGPU最新モデルが使えない環境で、Anthropic Claudeの知識を盗用することで、短期間で高度なモデルを生成した。

中国企業三社の攻撃手法

中国企業からの攻撃は大規模で、巧妙なネットワークを構築することで、Anthropicの防衛網を突破した。また、中国企業三社の攻撃対象技術は異なり、開発している製品に必須な技術を抽出したことが分かる。企業ごとの攻撃の手法は:

  • DeepSeek:15万回のアクセスで推論機能を抽出  [高度な推論機能を持つ「DeepSeek-R1」をリリースしAI市場に衝撃をもたらした](下の写真)
  • Moonshot AI:340万回のアクセスでエージェント機能とコーディング機能を抽出  [大容量メモリ(コンテキストウィンドウ)を搭載するモデル「Kimi」を開発]
  • MiniMax:1300万回のアクセスでコーディング機能とツールを使う機能を抽出  [パーソナリティやマルチモダル機能に特徴がある個人向けのAIモデル「Talkie」を開発]
出典: DeepSeek

DeepSeekのケースを検証すると

DeepSeekの攻撃手法を検証すると中国企業のAI開発戦略の特殊性が浮かび上がる。DeepSeekの攻撃は三つの要素から構成され、短期間で高度な推論モデルを開発できた理由が分かる。

  • 推論スキルの抽出:攻撃の目的は知識蒸留でClaudeに15万回アクセスしてスキルを盗み出した。DeepSeekのターゲットは推論機能で、Claudeに特殊なプロンプトを入力し、Claudeが思考する過程「Chain of Thoughts」を入手した。このChain of ThoughtsをDeepSeek R1に入力することで推論機能をコピーした。
  • 同期型トラフィック:DeepSeekは巧妙な手法でAnthropicの防御システムを掻い潜った。単一のアカウントから大量のプロンプトを発信すると、攻撃のシグナルと判定され、Anthropicはトラフィックを遮断する。このため、多数のアカウントから構成されるネットワーク「Hydra Network」を構築し、アカウント間でClaudeへのアクセス時間を調整し、ロードバランシングによる攻撃を実行した。単一のアカウントからのアクセス時間を短くし、作業を持ち回りで実行した。
  • 中国政府の検閲:中国政府はAIモデルが中国共産党の思想に準拠することを求める。DeepSeekは天安門事件など不都合な情報を出力することは禁止されている。しかし、出力を抑制すると利用者から知識が不十分と批判される。そのため、DeepSeekはClaudeに最適な解答モデルを生成することを求め、この回答をベースにDeepSeekを教育した。

知識蒸留の危険性

Anthropicは、中国企業がClaudeの知識をコピーすることで、基礎研究のフェイズをスキップして、短期間に米国モデルに追い付くことができる、と警鐘を鳴らした。更に、Claudeのスキルが抜き取られると、中国のAIモデルが高度なインテリジェンスを持ち、それが悪用されると重大なリスクが発生する。AnthropicはClaudeが悪用されてCBRN(Chemical, biological, radiological, nuclear)兵器を開発することを抑制するため、ガードレールを設け兵器開発に関する回答をブロックしている。しかし、中国企業がガードレールを設けないでそのまま使うと、CNRN兵器の開発に繋がり、世界の安全保障が脅かされる。

OpenAIの議会報告書

OpenAIはこれに先立ち、米国連邦議会下院の委員会に、中国企業による知識蒸留に関する報告書を提出した。OpenAIは、DeepSeekが知識蒸留の手法でOpenAI GPT-4やo1からスキルをコピーしたと述べ、中国企業は短期間で度高度な推論モデルを生み出したと結論付けた。また、DeepSeekは第三者のプロキシサービス(「Obfuscated Proxy」、デバイスが米国内にあるよう装う手法)を使ってOpenAIの制限を掻い潜った。OpenAIは中国からのアクセスを禁止しするためジオブロッキングを導入しているが、Obfuscated Proxyを使うことでこれを突破した。

出典: Google Gemini Pro Image

AIモデルへのサイバー攻撃は多彩

AIモデルはサイバー攻撃への耐性が低くセキュリティ強化が課題となってきた。AIモデルへのサイバー攻撃は四種類に区分され(上の写真)、知識蒸留は「Model Extraction」という攻撃手法となる。AIモデルに特殊なプロンプトを入力し、アルゴリズムの中身を盗み出す攻撃となる。この他に、AIモデルは教育と実行の過程でサイバー攻撃を受ける。前者は教育データを汚染する手法で、「Poisoning Attacks」と呼ばれ、開発されたモデルは正常に稼働しない。後者は実行時に、AIモデルに悪意あるデータを入力するもので「Evasion Attacks」と呼ばれ、システムを誤作動させる。この他に、AIモデルのバイアスや重みを改ざんし、システムを誤作動させる「Model Tempering」という攻撃がある。AnthropicとOpenAIだけでなく、高度なAIモデルを運用している企業はサイバー攻撃を受ける可能性が高く、セキュリティを強化することが喫緊の課題となる。

Anthropicはコーディング・エージェントでコンパイラを生成、AIだけで大規模ソフトウェアを開発できることを実証、SaaS企業の株価が大きく下落

Anthropicは言葉だけでプログラムをコーディングする「バイブコーディング」でCコンパイラを開発することに成功した。Cコンパイラは大規模なソフトウェアで社会インフラを支える。Anthropicはエンジニアの介在なく、AIエージェントだけでソフトウェアを開発できることを実証した。このインパクトは大きく、SaaS企業の株価が大きく下落し、ソフトウェア産業崩壊の議論が白熱している。

出典: Anthropic 

フラッグシップモデル

Anthropicは2月9日、フラッグシップモデル「Claude Opus 4.6」をリリースした。Opus 4.6は業界でトップの性能を示し、Anthropicが再び首位の座を奪い返した。Opus 4.6の特徴はコーディング技術で、言葉だけでプログラムを開発できる。これは「バイブコーディング(Vibe Coding)」と呼ばれ、Anthropicはこのトレンドの先頭を走っている。

コンパイラを開発

実際に、AnthropicはOpus 4.6でCコンパイラを開発し、そのプロジェクトを公開した。Cコンパイラは巨大なシステムで、開発には数か月を要すが、Opus 4.6はこれを2週間で完遂した。AIが巨大ソフトウェアを開発できることが実証され、IT産業に衝撃をもたらした。AIによりソフトウェアは不要になるとの見方が広がり、SaaS企業の株価が大きく下落した(下のグラフ、主要SaaS企業の株価が30%以上下落)。

出典: TechStackery

Claude Opus 4.6

Claude Opus 4.6はAnthropicのフラッグシップモデルで性能が大幅に強化された。その中で、プログラムをコーディングする機能が格段に向上し、業界でトップの性能に達した(下のグラフ)。Opus 4.6はAIエージェントに特化したモデルで、ソフトウェア開発ではコーディング・エージェント「Claude Code」として使われる。モデルが自律的に長時間にわたりプログラミングすることができる。複数のAIエージェントが作業分担して大規模なシステムを開発する。Claude Codeはソフトウェア開発部門の技術者のように、共同作業で巨大プロジェクトを実行する。

出典: Anthropic 

コンパイラ開発プロジェクト

AnthropicはOpus 4.6を使ってCコンパイラを開発し、その成果をオープンソースとして公開した(下の写真、ソースコードをGitHubに公開)。コンパイラとはソースコード(コマンド、人間が理解できるテキスト)をプロセッサ(CPUなど)の機械命令に変換するモデルを指す。ソフトウェア開発における基盤技術で、このケースでは「Rust」という言語を使って、基本ソフト「Linux」をコンパイルする「Cコンパイラ (Claude Code Compiler、CCC)」を開発した。完成したコンパイラは10万行の大規模システムで、「Linux 6.9」のカーネルを異なるアーキテクチャ(Intel x86、ARM、RISC-V)向けにコンパイルすることに成功した。

出典: Anthropic 

開発期間とコスト

このプロジェクトではコーディング・エージェント「Claude Code」が使われた。Claude Codeを2000セッション稼働させ、開発期間は2週間となった。Claude Codeは20億トークンを読み込み、1.4億トークンを出力した。これを金額に換算すると2万ドルとなる。通常、この規模のソフトウェアを開発するには、複数のエンジニアがチームを組み、開発期間は数か月を要す。

コーディング・エージェント

このプロジェクトでは、16のコーディング・エージェントが使われ、これらが共同作業を通してコンパイラ「Claude Code Compiler (CCC)」を生成した。コーディング・エージェントが作業を分担してタスクを実行した。エージェントは責任分野が指定され、コーディングの他に、ドキュメンテーション、性能改善、コードの品質改良などのタスクを実行した。(下の写真、Claude Code CompilerがLinuxカーネルをコンパイルしている画面)

出典: Anthropic 

コーディング・エージェントの制御方法

コーディング・エージェントは命令に従ってコンパイラを生成し、バイブコーディングで巨大ソフトウェアが開発された。コーディング・エージェントへの命令は公開されていないが、Anthropicの説明を読むと、プロンプトや作業法から構成されることが分かる。Claude Codeへの命令は下記の項目から構成される:

  • 開発概要:システム・プロンプトでエージェントにプロジェクトを指示。「あなたは自律的に稼働するエージェントでCコンパイラをRust言語で生成」と命令。
  • 作業分担:エージェントにコンパイラ開発のタスクを分割する命令。複数のエージェントがサブタスクを担いコーディングを実行する。
  • 作業報告:エージェントに作業の進捗状況を報告することを命令。各エージェントが現在の作業状況と次の作業予定を報告する。
  • 作業継続:エージェントに途中で作業を中断しないで作業を完遂する命令。コードが完成するまで作業をつづける命令。
  • 作業手順:エージェントに作業手順やルールを指示する命令。作業を始める前に、内容をファイルに書き込み、自分が担当していることを公開する。

ベンチマーク結果

Anthropicは、開発したClaude Code Compilerが正常に機能するこを検証するため、ベンチマーク試験を実施した。Claude Code Compilerを試験するための標準ベンチマーク「GCC Torture Test Suite」が公開されており、これにより開発したコンパイラを試験した。その結果99%の項目に合格した。また、AnthropicはClaude Code Compilerでオープンソース・ソフトウェアを実際にコンパイルし、それらが正常に機能することを検証した。

Claude Code Compilerの制限事項

Cコンパイラの開発に成功したが、Anthropicは制限事項を明らかにしている。Claude Codeで生成したコンパイラの品質と性能は業界標準製品「GNU Compiler Collection (GCC)」に劣るとしている。生成したClaude Code Compilerは正常に機能するが、コードの品質が劣り処理に時間がかかることを意味する。また、開発の過程で「GCC」を参照しており、ゼロから新たなソフトウェアを開発したのではなく、GCCのスキルを借用した形となることを明らかにしている。

Anthropicの警告メッセージ

Anthropicはコーディング・エージェントを使ったプログラム開発では検証試験が大きな課題となると警告している。エージェントは自律的にコーディングを遂行するが、エンジニアが検証試験を通して、その品質を確認する必要がある。試験環境をいかに構築するかが次の研究テーマとなる。また、コーディング・エージェントが開発したコードのロジックを理解することが大きなチャレンジとなる。開発されたコードはブラックボックスで、人間はその仕組みを理解できない。コーディング・エージェントの普及で市場に未検証のソフトウェアが広がると、社会に重大なリスクをもたらす。セキュリティに問題があればサイバー攻撃の対象となる。

SaaSの死に関する議論

Anthropicのコンパイラ開発プロジェクトはコーディング・エージェントがソフトウェアの100%を生成できることを示した。また、複数のコーディング・エージェントが作業を分担することで大規模なソフトウェアを開発できることを実証した。プロジェクトの成功を受け、市場ではSaaS企業が存続できるかの議論が白熱している。ウォールストリートは「SaaS is Dead」(SaaSは死んだ)と評価するが、シリコンバレーはSaaSの強みはインフラストラクチャで、ソフトウェア産業が生まれ変わるとの見方を示している。全米でSaaSの崩壊と存続について多次元な意見が交わされている。

出典: Google Gemini 3 Pro Image