カテゴリー別アーカイブ: Anthropic

Anthropicは最新モデル「Claude 4」をリリース、ソフトウェア開発AIエージェント機能が格段に向上、同時にCEOはAIが社員を置き換え米国の失業率が急上昇すると警告

Anthropicは最新モデル「Claude Opus 4」と「Claude Sonnet 4」を公開した。両者はコーディングのスキルが向上し、高度な推論機能を持ち、AIエージェントとしてソフトウェア開発を人間のように実行する。AIエンジニアリング機能が大きく進化し、他社を大きく引き離し業界トップの性能をマークした。一方、CEOであるDario Amodeiは、AIが急速に進化し、ホワイトカラーの仕事を置き換え、米国で失業者が急増すると警告した。新卒者のポジションの半数がAIで置き換えられ、雇用対策のために新たな制度の導入が必要との意見を明らかにした。

出典: Anthropic

Claude Opus 4とClaude Sonnet 4

Anthropicは開発者会議「Code with Claude」で最新モデル「Claude Opus 4」と「Claude Sonnet 4」を公開した(上の写真)。Opus 4はハイエンドモデルで、コーディング技術で業界トップの性能を持ち、複雑なプログラムをAIエージェントとして実行する。Sonnet 4はミッドレンジモデルで、コーディング技術や推論機能が大きく強化された。両者はハイブリッドモデルで、通常モードの他に「Extended Thinking(拡張推論)」モードを提供する。後者は推論機能を拡張したもので、モデルは異なるロジックで考察を重ね、複雑な問題を解く能力を持つ。(下の写真、Claude Opus 4のインターフェイス、拡張推論機能を使うには「Extended Thinking」タグをオンにする)

出典: Anthropic

ソフトウェアエンジニアリング機能

Anthropicはベンチマーク「SWE-Bench」の結果を公開し、Claude Opus 4とClaude Sonnet 4はソフトウェアエンジニアリングで他社を引き離しトップの性能をマークした(下のグラフ)。SWE-Benchとは、実社会の問題を解決する技量を判定するもので、コーディングだけでなくプログラムを理解し、問題を修正する能力が試される。具体的には、プログラムのシステム構造を把握し、ソフトウェアのバグを見つけ、これに修正を施し、その結果を確認するステップから構成される。Claude 4シリーズはOpenAIのコーディングモデル「Codex-1」の性能を上回った。

出典: Anthropic

AIエージェントとして複雑なシステムを開発

実際に、Claude Opus 4はコーディングだけでなく、複雑なシステムを開発することができる。Opus 4にEコマースサイトの開発で、人間が複数のステップを指示すると、モデルは指示された手順に沿ってプログラムを開発していく。Opus 4でコーヒーショップのウェブシステムの開発をする際に、1)注文のフローの生成、2)注文のフローを管理する画面、3)入力されたデータをストア、4)ウェブインターフェイスの開発、などと指示すると(下の写真上段)、Opus 4はこのスペック従ったプロトタイプを生成する(下の写真下段)。これらのプロセスはエンジニアが手作業で進めていたが、Opus 4がこの仕事を代行しシステム開発が自動化された。エンジニアの役割はコーディングなどの力仕事から、アーキテクチャの設計などハイレベルな職務に代わることになる。

出典: Anthropic

CEOの警告メッセージ

この発表に続き、Anthropic CEOのDario Amodeiは、AIにより米国で失業者が増えると警告メッセージを発信し、米国社会でセンセーションを引き起こした。Amodeiは今後1年から5年の間に、米国の入門レベルのホワイトカラーの仕事の50%がAIに置き換わり、失業率が10%から20%に上昇するとの見解を示した。業種別では、ハイテク、金融、法律の分野で影響が甚大で、エントリーレベルのエンジニアがAIで置き換えられる。Claude 4シリーズの発表直後に失業問題を提起し、米国でAIによる失業問題に関する議論が再燃した。

出典: Dario Amodei

失業対策

Amodeiは同時に、AIによる失業者を救済するための対策案を提示した。一つは、AI開発企業に新たな税を課すことで、この税収で失業者がリスキリングするためのプログラムを運用する。この新税は「Token Tax」と命名され、AI企業のAPI収入(モデル使用料金)に課税し、税率を3%に設定する。二つ目は、政府と民間企業が大規模なリスキリングプログラムを運営しAI時代の雇用対策を実行する。これは、第二次世界大戦後、米国は帰還兵士を再教育する政策「GI Bill」を制定し大きな成功を収めた。これを参考に、AI時代は官民が共同で労働者を再教育するプログラムを実行する。

AIセーフティを推進

Anthropicはホワイトカラーを置き換える高度なAIモデルをリリースし、同時に、AIによる失業問題を指摘しその対策案を提示した。Amodeiはあえて問題点を指摘した理由を、Anthropicのミッションは高度なAIを責任もって開発することにある、と述べている。また、トランプ政権はAIの規制緩和を進めるが、AnthropicはAIを安全に開発運用するためには、政府によるガードレールが必要であるとのポジションを取る。Anthropicが米国市場でAIセーフティをけん引する役割を担っている。

Anthropicは人間の知能を超えるAIモデル・AGIを2027年までに投入、危険性を低減するためモデルの可視化技術「AI向けMRI」を開発中、安全技術開発は時間との競争

AnthropicのCEOであるDalio Amadeiは、人間の知能を超えるAIモデル・AGIの開発が急速に進み、2026年から2027年までに出荷が始まるとの見解を明らかにした。AGIは国家の頭脳となり経済活動を支えるが、同時に甚大な危険性を含み、これを安全に開発運用するための技術開発を加速すべきと提言した。AnthropicはAGIを制御するために、そのアルゴリズムを可視化するアプローチを取る。これは人間の頭脳をスキャンする手法に匹敵し、この技術を「MRI-for-AI(AI向けMRI)」と呼ぶ。AGIをスキャンしてモデルの思考回路を明らかにし、人間を欺き価値観に反する挙動を検知し、これを修正することで責任あるAGI開発を進める。

出典: Generated with Google Imagen 3

AIモデルの不透明性

AGIのベースとなる大規模AIモデルはシステムの構造がオペーク(Opaque、不透明)でモデルの挙動の仕組みを理解することができない。膨大な数のパラメータ(重みなど)の組合せで挙動が決まり、これを数値解析してアルゴリズムを理解することは現実的でない。大規模AIモデルはエンジニアが創り上げたシステムではなく、モデルが学習を重ね成長した成果で、植物が成長する過程に似ている。

AGIの危険性

アルゴリズムがオペークであるため、大規模AIモデルは様々な危険性を内包している。その主なものは:

  • Deception:人間を欺くリスク、モデルは与えられたタスクを効率的に完遂するために人間を騙す挙動を示す
  • Misuse:モデルが敵対国などに悪用されるリスク、開発過程でガードレールを設定し、危険な情報の出力を抑止しするが、この防御網が突破される
  • Regulatory:モデルが法令に準拠できないリスク、アルゴリズムがオペークで判定理由を理解できない、銀行におけるローン審査の判定理由を説明できないなど

可視化技術の開発

AI開発企業は大規模言語モデルのブラックボックスを開き、アルゴリズムの挙動を解明する研究を進めている。ニューラルネットワークのニューロン(Neuron、ノード)の活性化(Activation、機能がオンになること)に着目し、特定のニューロンが活性化することが特定の意味を持つと考えられてきた。例えば、写真からその種別を判定する際に、特定のニューロンが活性化され、これがクルマやネコやリンゴなどを識別すると解釈されてきた。

可視化技術の開発:Mechanistic interpretability

これに対し、Anthropicは活性化した複数のニューロンの組み合わせが、特定のコンセプトを示すと考え、この組み合わせを「機能特性(Feature)」と呼び、機能特性を把握することで、AIモデルのアルゴリズムを解明する手法を探求している。例えば、「ゴールデンゲートブリッジ」という機能特性は、「ゲート」や「橋」や「サンフランシスコ」などの要素を含み、単一のコンセプトは複数の単語から構成されることを明らかにした。(下の写真、テキストのなかで「ゴールデンゲートブリッジ」に関連の深い単語をハイライトした事例、「ゲート」や「橋」や「サンフランシスコ」などの単語がハイライトされている。)

出典: Anthropic

可視化技術の開発:Circuit Tracing

Anthropicは推論モデルの挙動を解明するために「Circuit Tracing」という手法を開発している。これは、ニューロンの思考回路をマッピングする手法で、推論モデルが思考の鎖で考察を重ねるプロセスを可視化し挙動を解明する。例えば、「ダラスがある州の州都はどこか」との質問に、Circuit Tracingは思考回路をステップごとに可視化しモデルの思考パターンを解明する(下の写真)。

出典: Anthropic

タイムライン

Anthropicは大規模AIモデルの安全技術をAGIが登場するまでに開発することを目指している。具体的には三つの目標を設定しこれに向かって開発を進めている:

  • 2025年から2026年:30Mから1Bの機能特性(Feature)を検知し、これをインデックスとして整理する
  • 2026年から2027年:AGIを含む危険性の高いモデル(ASL-4)の思考回路を把握し問題点を特定する
  • 2027年以降:リアルタイムでモデルのロジックを可視化し問題点を検知するダッシュボードを開発

安全技術開発は時間との闘い

AnthropicはAGI開発を進めているが、機能や性能だけでなく、その安全技術の研究を重点的に展開している。AGIの機能の成長のスピードは速く、安全技術の開発がこれに追従できない状態となっている。AGIが2026年から2027年のタイムフレームでリリースされるが、安全機能の準備が間に合わないことを懸念している。AGI安全技術の整備で残された時間は僅かで、開発は時間との闘いとなっている。