月別アーカイブ: 2025年5月

Anthropicは最新モデル「Claude 4」をリリース、ソフトウェア開発AIエージェント機能が格段に向上、同時にCEOはAIが社員を置き換え米国の失業率が急上昇すると警告

Anthropicは最新モデル「Claude Opus 4」と「Claude Sonnet 4」を公開した。両者はコーディングのスキルが向上し、高度な推論機能を持ち、AIエージェントとしてソフトウェア開発を人間のように実行する。AIエンジニアリング機能が大きく進化し、他社を大きく引き離し業界トップの性能をマークした。一方、CEOであるDario Amodeiは、AIが急速に進化し、ホワイトカラーの仕事を置き換え、米国で失業者が急増すると警告した。新卒者のポジションの半数がAIで置き換えられ、雇用対策のために新たな制度の導入が必要との意見を明らかにした。

出典: Anthropic

Claude Opus 4とClaude Sonnet 4

Anthropicは開発者会議「Code with Claude」で最新モデル「Claude Opus 4」と「Claude Sonnet 4」を公開した(上の写真)。Opus 4はハイエンドモデルで、コーディング技術で業界トップの性能を持ち、複雑なプログラムをAIエージェントとして実行する。Sonnet 4はミッドレンジモデルで、コーディング技術や推論機能が大きく強化された。両者はハイブリッドモデルで、通常モードの他に「Extended Thinking(拡張推論)」モードを提供する。後者は推論機能を拡張したもので、モデルは異なるロジックで考察を重ね、複雑な問題を解く能力を持つ。(下の写真、Claude Opus 4のインターフェイス、拡張推論機能を使うには「Extended Thinking」タグをオンにする)

出典: Anthropic

ソフトウェアエンジニアリング機能

Anthropicはベンチマーク「SWE-Bench」の結果を公開し、Claude Opus 4とClaude Sonnet 4はソフトウェアエンジニアリングで他社を引き離しトップの性能をマークした(下のグラフ)。SWE-Benchとは、実社会の問題を解決する技量を判定するもので、コーディングだけでなくプログラムを理解し、問題を修正する能力が試される。具体的には、プログラムのシステム構造を把握し、ソフトウェアのバグを見つけ、これに修正を施し、その結果を確認するステップから構成される。Claude 4シリーズはOpenAIのコーディングモデル「Codex-1」の性能を上回った。

出典: Anthropic

AIエージェントとして複雑なシステムを開発

実際に、Claude Opus 4はコーディングだけでなく、複雑なシステムを開発することができる。Opus 4にEコマースサイトの開発で、人間が複数のステップを指示すると、モデルは指示された手順に沿ってプログラムを開発していく。Opus 4でコーヒーショップのウェブシステムの開発をする際に、1)注文のフローの生成、2)注文のフローを管理する画面、3)入力されたデータをストア、4)ウェブインターフェイスの開発、などと指示すると(下の写真上段)、Opus 4はこのスペック従ったプロトタイプを生成する(下の写真下段)。これらのプロセスはエンジニアが手作業で進めていたが、Opus 4がこの仕事を代行しシステム開発が自動化された。エンジニアの役割はコーディングなどの力仕事から、アーキテクチャの設計などハイレベルな職務に代わることになる。

出典: Anthropic

CEOの警告メッセージ

この発表に続き、Anthropic CEOのDario Amodeiは、AIにより米国で失業者が増えると警告メッセージを発信し、米国社会でセンセーションを引き起こした。Amodeiは今後1年から5年の間に、米国の入門レベルのホワイトカラーの仕事の50%がAIに置き換わり、失業率が10%から20%に上昇するとの見解を示した。業種別では、ハイテク、金融、法律の分野で影響が甚大で、エントリーレベルのエンジニアがAIで置き換えられる。Claude 4シリーズの発表直後に失業問題を提起し、米国でAIによる失業問題に関する議論が再燃した。

出典: Dario Amodei

失業対策

Amodeiは同時に、AIによる失業者を救済するための対策案を提示した。一つは、AI開発企業に新たな税を課すことで、この税収で失業者がリスキリングするためのプログラムを運用する。この新税は「Token Tax」と命名され、AI企業のAPI収入(モデル使用料金)に課税し、税率を3%に設定する。二つ目は、政府と民間企業が大規模なリスキリングプログラムを運営しAI時代の雇用対策を実行する。これは、第二次世界大戦後、米国は帰還兵士を再教育する政策「GI Bill」を制定し大きな成功を収めた。これを参考に、AI時代は官民が共同で労働者を再教育するプログラムを実行する。

AIセーフティを推進

Anthropicはホワイトカラーを置き換える高度なAIモデルをリリースし、同時に、AIによる失業問題を指摘しその対策案を提示した。Amodeiはあえて問題点を指摘した理由を、Anthropicのミッションは高度なAIを責任もって開発することにある、と述べている。また、トランプ政権はAIの規制緩和を進めるが、AnthropicはAIを安全に開発運用するためには、政府によるガードレールが必要であるとのポジションを取る。Anthropicが米国市場でAIセーフティをけん引する役割を担っている。

Google AIビデオ「Veo 3」が米国で一大センセーション!!ビデオだけでなく音声や音楽を生成、AIで映画を製作できコンテンツ業界が激変

Googleはテキストからビデオを生成するAIモデルの最新版「Veo 3」をリリースした。Veo 3はビデオの品質が格段に向上したことに加え、会話や背景音や音楽を生成する機能が付加され、AIで完全なビデオを生成できるようになった。ビデオとサウンドが生成され、AIで映画を製作できる時代に突入した。実際に使ってみると、音楽を演奏するシーンは衝撃的で、楽器の演奏に合わせてクールなサウンドが生成される(下の写真)。ソーシャルメディアにVeo 3で生成したビデオが数多く掲載され、コンテンツ業界が激変する予兆を示している。

出典: VentureClef、ビデオのURL:https://photos.app.goo.gl/3Z5Yt4xY7nTv1M5f7

Veo 3の概要

GoogleはAIビデオの最新モデル「Veo 3」をリリースした。衝撃的にリアルなビデオを生成できソーシャルメディアで波紋を広げている。Veo 3は入力されたテキスト(プロンプト)とイメージに従って、ビデオを生成する機能を持つ。多くのAIビデオが市場に投入されているが、Veo 3はイメージだけでなくサウンドを生成する機能を持ち、ビデオ撮影したようにリアルな映像を生み出す。Veo 3は720pの画質で8秒間のビデオを生成する。

AIビデオの生成ツール

Googleは同時に、ビデオを生成するツール「Flow」をリリースした。Flowはプロ向けのAIビデオ制作フレームワークで、多彩な機能を搭載している。FlowはVeoの他に、Imegen(イメージ生成AIモデル)とGemini(言語モデル)とリンクし、AIモデルを組み合わせて高度なビデオを生成できる。Imegenで生成したイメージを元に、ここからビデオに生成する機能などがある。また、Gemini 2.5 Proを使いブラウザーのインターフェイスからビデオを作成するオプションもある。Gemini の「Videoボタン」を選択し、プロンプトを入力してビデオを生成する(下の写真)。

出典: VentureClef

Veo 3のシステム構成

Veo 3は三つのAIモデルを組み合わせた構造で、言語モデル「Gemini」が入力されたプロンプトを理解する。ビデオモデルがプロンプトに従って映像を生成し、オーディオモデルが映像に沿ったサウンドを付加する。ビデオモデルは「ディフュージョン(Diffusion)」というアーキテクチャに基づき、ランダムなノイズからこれらを除去する手法でクリアなイメージを生成する。

物理現象の理解と背景音

GoogleはVeo 3で生成したビデオを公開している。デリケートな鳥の羽が風で飛ばされて、蜘蛛の巣に引っ掛かる映像が示されている(下の写真)。軽い羽根が風に乗る物理現象を正確に描いている。また、AIモデルは情景を理解し、風の音などの背景音を自動で生成する。人間がプロンプトで背景サウンドを指示する必要は無く、AIがシーンを理解し自動で背景音を挿入する。

出典: Google、ビデオのURL:https://youtu.be/ODyROOW1dCo?t=1

スパイ映画のワンシーン

Veo 3は映画のシーンを生成する。込み合っている駅のプラットフォームで、スパイが機密情報の受け渡しを会話するシーンが描かれている(下の写真)。ここでは背景の騒音と二人の人物の会話が描写されている。背景の騒音はVeo 3が自動的に生成するが、会話の内容はプロンプトで設定できる。ハリウッドで制作される映画のクリップがVeo 3で生み出される。

出典: Google、ビデオのURL:https://youtu.be/ODyROOW1dCo?t=32 

バイオリンを演奏

Veo 3の衝撃は音楽の演奏をシンセサイズできることにある。バイオリンを演奏するシーンでは、楽器を操作する細やかな動作を忠実に再現し、それに同期して鮮明なサウンドを生成する(下の写真)。プロのバイオリニストのレベルの演奏をVeo 3で生成できる。実際にVeo 3を使ってみると、簡単に演奏のシーンを生成できる。「東京タワーの下でバンドがジャズを演奏」と指示するだけで、ピアノ、サキソフォン、ベース、ドラムが描き出され、クールな音楽が生成される(先頭の写真)。

出典: Google、ビデオのURL:https://youtu.be/ODyROOW1dCo?t=63

コマーシャルビデオを生成

Veo 3によりクリエイティブ産業が激変することになる。Veo 3は8秒間の短編ビデオを生成する機能を持ち、コマーシャルビデオの多くがVeo 3で生成されることになる。実際に、ビデオ制作の専門家は、Veo 3で生成したビデオを連結してコマーシャルビデオのプロトタイプを生成している(下の写真)。日常目にするコマーシャルビデオと全く遜色は無く、低価格で魅力的なビデオを生成できる時代となった。コンテンツ業界のビジネスプラクティスが根底から変わることになる。

出典: PJ Ace

フェイクビデオとその対策

Veo 3で生成した映像はカメラで撮影したビデオと全く見分けがつかない。業界はこの現象を「Singularity」と表現し、AIビデオとリアルビデオの境界が消滅したことを示している。高品質のフェイクニュースやフェイクビデオが大量に生成されることになり、消費者はコンテンツの真偽を判定するスキルをアップデートする必要がある。目に入る映像からはリアルとフェイクの判断は不可能で、多角的な視点から本物を見分ける技能が必須となる。ビデオ製作者や配布メディアやコンテンツの背後情報など、複数の要素を頼りに総合的な判断能力が求められる。(下の写真、偽のモーターショーから実況中継するビデオ)

出典: PJ Ace

xAIはGrok 3のシステム・プロンプトを公開!!ここにマスク氏のビジョンが埋め込まれている、AIモデルは政治的に中立で真実を極限まで探求する

イーロン・マスク氏が創設したxAIは高度なAIモデル「Grok 3」を運用している。Grok 3は機能が大幅に強化され、OpenAIなど先頭集団に追い付いた。また、Grok 3はマスク氏のビジョンを色濃く反映したモデルで、政治的に中立な立場を取り、真実を極限まで探求する設計となっている。xAIはGrok 3のシステム・プロンプトを公開しこの事実が判明した。(下の写真、マスク氏はXでのユーザ名を「Kekius Maximus」に変更した。マスク氏は米国で人気が急落したが、古代ローマの皇帝を名乗り復活を目指している。)

出典: X

Grok 3が誤作動

今週、Grok 3が誤作動し、偽情報を繰り返し出力するというインシデントが発生した。Grok 3は、南アフリカで白人が集団で殺害されたという陰謀説「White Genocide(白人のジェノサイド)」を繰り返し出力した。原因を調査すると、Grok 3の「システム・プロンプト(System Prompts)」が改ざんされたことが判明した。xAIの社員によるGrok 3へのサイバー攻撃で、社会に大きな衝撃をもたらした。 (下の写真、Grok 3は問われたこととは無関係に「White Genocide」について説明を始めた。)

出典: ‪ @jimpjorps.bsky.social

システム・プロンプトとは

xAIはこれを修正するとともに、システム・プロンプトを公開し(下の写真)、AIモデルの透明性を高める対策を実施した。そもそもシステム・プロンプトとは、AIモデルが守るべきルールを制定する仕組みで、Grok 3はこの規定に従って稼働する。ここには「政治的に中立」で、「真実を最大限探求」するなど、AIモデルの行動規範が定義されている。人間社会では、企業は行動規範を定め、社員はこれに沿って行動することが求められる。AIモデルはシステム・プロンプトの規定に従って動作するよう設計されている。

出典: xAI

システム・プロンプトを読むと

Grokのシステム・プロンプトが開示されたのはこれが始めてで、これを読むとGrok 3の設計コンセプトを理解することができる。ここには、Grok 3がチャットボットとして稼働する際の規定や、推論モデル「DeepSearch」として稼働する際の規定が設けられている。多くの項目が規定されているが、主なものは:

  • コア機能:Grok 3は幅広い分野をカバーし利用者の質問に正しく回答することを基本技術とする
  • リアルタイム情報:Grok 3はウェブサイトや「X」の情報を参照し最新のデータを提供する
  • 政治的に中立:Grok 3は主要メディアの情報に対し「extremely skeptical(重大な疑問を呈し)」盲目的にこれらを採用することを抑止する (下の写真、シェイドの部分)
  • 知識の探求:Grok 3は「truth-seeking and neutrality」として、真理を最大限に探求し、政治的にバイアスしないで中立な立場を取る(下の写真、シェイドの部分)
出典: xAI

マスク氏のビジョンを反映

Grok 3のシステム・プロンプトはマスク氏のビジョンを色濃く反映していることが分かる。マスク氏は、他社のAIモデルがリベラルにバイアスした「Woke AI」であると批判している。Google Geminiが黒人のワシントン大統領を生成したことを事例に、人種平等を間違って解釈していると指摘する。マスク氏はこれらを教訓に、Grok 3を政治的に中立であり、また、真実を最大限に探求するモデルにすると改めて宣言した(下の写真)。

出典: X

異なるキャラクターのAIモデル

Grok 3のシステム・プロンプトから分かるように、各企業は独自のキャラクターを備えるAIモデルを開発している。OpenAIやGoogleはシステム・プロンプトを公開していないが、モデルを使ってみると、これを経験的に感じる。Anthropicはシステム・プロンプトを公開しており、これによると安全なAIモデルを生成することを究極の目的としている。

ファインチューニングとの関係

一方、システム・プロンプトだけでAIモデルの挙動を全て規定できるわけでは無い。Grok 3はプレ教育の過程で大量のデータを学び、また、ポスト教育の過程では人間の価値に沿った強化学習が実行されている。Grok 3の機能や精度や挙動は教育データの品質に大きく依存する。システム・プロンプトは、完成したモデルを統括するルールブックとして位置付けられ、これで挙動を完全にコントロールできる訳では無い。AIモデルの制御は両者の組合せで行われ、複雑で難しい作業となる。

Grok 3は真実を最大限に探求するのか

Grok 3は中立で真実を最大限に探求するモデルとして設定されているが、上述の通り、システム・プロンプトだけでこれを実現できるわけはない。また、「中立」や「真実」に関する定義は常に議論となり、共通の理解は確立されていない。また、xAIはこの指標でGrokをベンチマークし、その結果を示している訳でもない。Grok 3の利用においては、設計仕様とは別に、AIモデルの出力を人間の眼で検証し、「中立」や「真実」を確かめる必要がある。(下の写真、Grok 3に大統領が関税を課す権限があるかと質問すると、Yesと回答しトランプ政権を擁護をする解釈を示した。)

出典: xAI

アメリカ政府のAI政策が規制強化から開発促進に大転換!!OpenAIは一転してAIの規制緩和を求める、連邦議会は特区を設立しAI開発を後押し

アメリカ議会上院は公聴会を開催し、AI政策に関しOpenAI、AMD、Microsoftなどから意見を聴取した。公聴会の目的は、アメリカがAI開発で勝利するための政策の立案で、規制緩和、技術革新、中国との競争などで意見が交わされた。トランプ政権となり、アメリカ政府はAIの規制から推進に政策を一転した。OpenAIは、前政権では規制強化を求めたが、公聴会では一転して、規制緩和を主張した。連邦議会は開発特区(サンドボックス)を設立し、ここでAIをフリーハンドで開発させる構想を明らかにした。

出典: National Park Service

公聴会の概要

アメリカ連邦議会上院は、AI競争で勝利することをテーマ「Winning the AI Race: Strengthening U.S. Capabilities in Computing and Innovation」に公聴会を開催し、主要企業から意見を聴取した。公聴会には、OpenAIのSam Altmanなどが出席し意見を陳述した(下の写真)。AltmanはAI開発の規制を緩やかにすることを求めた。また、トランプ政権期間中に人間の知能を超えるAIモデルAGI(Artificial General Intelligence )が生まれるとの見通しを示した。公聴会の委員長であるTed Cruz上院議員は、新たなAI法案「AI Regulatory Sandbox」の構想を明らかにした。

出典: U.S. Senate Committee on Commerce, Science, and Transportation

単一の緩やかな規制

Altmanは連邦政府が全米をカバーする法令を制定し、緩やかなAI規制を実施することを求めた。現在は、全米50州が異なるAI規制法を制定し、開発企業はこの複雑な規則に準拠することを求められている。Altmanは、AI製品を出荷する前に安全検査を義務付けている現行法式は、企業の大きな負担となるとして、緩やかな規制を求めた。ただし、規制の内容については回答を控えた。

移民によるAI人材の確保

AltmanはAI研究者やエンジニアの採用を容易にするための政策を求めた。アメリカが科学技術で世界のリーダーとなっている大きな要因は移民政策にある。優秀な研究者やエンジニアがアメリカに移民し、ハイテク産業の基盤を支えている。AIにおいては、研究者やエンジニアがビザを取得するプロセスを簡素化することを要求した。

スケーリングとAGIの登場

Altmanはスケーリングの法則は継続しており、AIモデルのインテリジェンスは幾何級数的に向上しているとの見解を示した。AIモデルの教育プロセスにおけるスケーリングは緩やかになったが、インファレンスのプロセスでは実行時間を長くすると性能が向上している。また、AIモデルで特定の性能に到達するためのコストは1年ごとに1/10となり、インテリジェンスの価格が低下している。更に、AIモデルが人間レベルの知能に達成するための開発期間は急速に短くなっており、Altmanはトランプ政権期間内に「AGI」が登場するとの見解を示した。

製品出荷ロードマップ

AltmanはOpenAIの製品開発ロードマップを示し、今後3年以内にAIモデルで大きな技術進化があると述べた。OpenAIの製品リリース計画は:

  • 2025年:AIエージェント、実社会の複雑なタスクを処理するモデル、病院における予約業務など
  • 2026年:科学分野でブレークスルー、気候変動や医療などの分野でAIモデルの活躍が期待される
  • 2027年:ロボティックス、AIモデルを搭載したロボットの登場、工場など実社会で生産性が向上する

米国技術を世界に拡散させる

MicrosoftのBrad Smith社長はアメリカがAI競争で勝つためにはAIのイノベーションとエコシステムの両方が必要であるとの考え方を示した(下の写真)。エコシステムとは、インフラ、プラットフォーム、アプリから構成されるAIシステムの全体モデルを示す。AI競争を優位に展開するためには、これらをアメリカの技術で提供する必要がある。特に、アプリのレイヤーでは、AIモデルが世界各国に拡散(Diffusion)すること必須で、多くの人に利用されることで、最終的な勝利者となる。このために、政府は過度な輸出規制を導入するのではなく、最小の規制で製品拡散を後押しすべきとの見解を示した。

出典: U.S. Senate Committee on Commerce, Science, and Transportation

アメリカ連邦議会の構想

公聴会で委員長のTed Cruz上院議員はAI規制法に関する構想を明らかにした(下の写真)。この法案は「AI Regulatory Sandbox」と呼ばれ、AI開発における規制を最小限に留め、技術革新を後押しする構造となる。AI開発を推進するための特別地区「サンドボックス(Sandbox)」を制定し、企業はここで製品を最小の制限の元で開発する。サンドボックスは法令に関する特別なエリアで、企業は政府機関(連邦取引委員会や司法省など)から法的な責任を問われることなく、自由にAI開発を進める。これはインターネットが登場した当初のアメリカ政府の政策を模したもので、黎明期のAI技術の開発を民間企業や個人が自由に進められる環境を提供する。

出典: U.S. Senate Committee on Commerce, Science, and Transportation

公聴会を聴くと

公聴会はOpenAIがAI政策を大転換した場となった。2023年に開催された公聴会では、Altmanは政府が厳格なルールを設定し、AIを安全に開発する政策を提言した。今回の公聴会では一転して、ライトタッチ(Light-Touch)な規制を導入することを提言した。企業が幅広い自由度を持ち、技術革新を優先できる環境の整備を求めた。同時に、DeepSeekなど中国企業がAI技術を急速に伸ばしており、連邦議会は米国企業に開発のペースを速めることを迫っている。民間企業と連邦政府はAI競争で勝利することを共通の目標としており、アメリカはAIを規制する政策から、開発を促進する方向に進み始めた。

Anthropicは人間の知能を超えるAIモデル・AGIを2027年までに投入、危険性を低減するためモデルの可視化技術「AI向けMRI」を開発中、安全技術開発は時間との競争

AnthropicのCEOであるDalio Amadeiは、人間の知能を超えるAIモデル・AGIの開発が急速に進み、2026年から2027年までに出荷が始まるとの見解を明らかにした。AGIは国家の頭脳となり経済活動を支えるが、同時に甚大な危険性を含み、これを安全に開発運用するための技術開発を加速すべきと提言した。AnthropicはAGIを制御するために、そのアルゴリズムを可視化するアプローチを取る。これは人間の頭脳をスキャンする手法に匹敵し、この技術を「MRI-for-AI(AI向けMRI)」と呼ぶ。AGIをスキャンしてモデルの思考回路を明らかにし、人間を欺き価値観に反する挙動を検知し、これを修正することで責任あるAGI開発を進める。

出典: Generated with Google Imagen 3

AIモデルの不透明性

AGIのベースとなる大規模AIモデルはシステムの構造がオペーク(Opaque、不透明)でモデルの挙動の仕組みを理解することができない。膨大な数のパラメータ(重みなど)の組合せで挙動が決まり、これを数値解析してアルゴリズムを理解することは現実的でない。大規模AIモデルはエンジニアが創り上げたシステムではなく、モデルが学習を重ね成長した成果で、植物が成長する過程に似ている。

AGIの危険性

アルゴリズムがオペークであるため、大規模AIモデルは様々な危険性を内包している。その主なものは:

  • Deception:人間を欺くリスク、モデルは与えられたタスクを効率的に完遂するために人間を騙す挙動を示す
  • Misuse:モデルが敵対国などに悪用されるリスク、開発過程でガードレールを設定し、危険な情報の出力を抑止しするが、この防御網が突破される
  • Regulatory:モデルが法令に準拠できないリスク、アルゴリズムがオペークで判定理由を理解できない、銀行におけるローン審査の判定理由を説明できないなど

可視化技術の開発

AI開発企業は大規模言語モデルのブラックボックスを開き、アルゴリズムの挙動を解明する研究を進めている。ニューラルネットワークのニューロン(Neuron、ノード)の活性化(Activation、機能がオンになること)に着目し、特定のニューロンが活性化することが特定の意味を持つと考えられてきた。例えば、写真からその種別を判定する際に、特定のニューロンが活性化され、これがクルマやネコやリンゴなどを識別すると解釈されてきた。

可視化技術の開発:Mechanistic interpretability

これに対し、Anthropicは活性化した複数のニューロンの組み合わせが、特定のコンセプトを示すと考え、この組み合わせを「機能特性(Feature)」と呼び、機能特性を把握することで、AIモデルのアルゴリズムを解明する手法を探求している。例えば、「ゴールデンゲートブリッジ」という機能特性は、「ゲート」や「橋」や「サンフランシスコ」などの要素を含み、単一のコンセプトは複数の単語から構成されることを明らかにした。(下の写真、テキストのなかで「ゴールデンゲートブリッジ」に関連の深い単語をハイライトした事例、「ゲート」や「橋」や「サンフランシスコ」などの単語がハイライトされている。)

出典: Anthropic

可視化技術の開発:Circuit Tracing

Anthropicは推論モデルの挙動を解明するために「Circuit Tracing」という手法を開発している。これは、ニューロンの思考回路をマッピングする手法で、推論モデルが思考の鎖で考察を重ねるプロセスを可視化し挙動を解明する。例えば、「ダラスがある州の州都はどこか」との質問に、Circuit Tracingは思考回路をステップごとに可視化しモデルの思考パターンを解明する(下の写真)。

出典: Anthropic

タイムライン

Anthropicは大規模AIモデルの安全技術をAGIが登場するまでに開発することを目指している。具体的には三つの目標を設定しこれに向かって開発を進めている:

  • 2025年から2026年:30Mから1Bの機能特性(Feature)を検知し、これをインデックスとして整理する
  • 2026年から2027年:AGIを含む危険性の高いモデル(ASL-4)の思考回路を把握し問題点を特定する
  • 2027年以降:リアルタイムでモデルのロジックを可視化し問題点を検知するダッシュボードを開発

安全技術開発は時間との闘い

AnthropicはAGI開発を進めているが、機能や性能だけでなく、その安全技術の研究を重点的に展開している。AGIの機能の成長のスピードは速く、安全技術の開発がこれに追従できない状態となっている。AGIが2026年から2027年のタイムフレームでリリースされるが、安全機能の準備が間に合わないことを懸念している。AGI安全技術の整備で残された時間は僅かで、開発は時間との闘いとなっている。