月別アーカイブ: 2025年9月

全米のレガシー・ソフトウェアをAIで書き換えセキュリティを強化する巨大構想「Great Refactor」、コーディングAIエージェントが古い言語(C/C++やCOBOL)を安全な言語(RustやJava)に自動で変換

米国で社会の基幹を担うソフトウェアをAIエージェントで書き換え、システムをモダン化する構想が発表された。これは「Great Refactor」と呼ばれ、レガシー・システムを改修しセキュリティを強化することをミッションとする。米国政府や民間企業は古いシステムを汎用機の上で稼働し基幹業務を実行している。これらレガシー・コードはセキュリティに関し重大な脆弱性を内包しサイバー攻撃の標的になってきた。これらを人間に代わりAIエージェントが書き換えセキュアなシステムを生成する。

出典: Generated with Google Imagen 4

リファクタリングとは

リファクタリング(Refactoring)とはプログラムを書き換える技術で、その機能を変えることなく、コードを改良することで、プログラムをモダン化し、運用性を高める技法を意味する。また、コードを整理することで、読みやすさを増し、保守作業を容易にするために使われる。Great Refactorではセキュリティに重点を置き、古いコードが内包している脆弱性を補強することを目的とする。

レガシー・コードのリスク

レガシー・コードの多くはプログラム言語「C」や「C++」で記述されており、技術的な問題を含んでいる。その代表がメモリ(主記憶)管理機能で、「C」や「C++」で生成されたプログラムはメモリ操作でバグがあり、これがサイバー攻撃の標的となってきた。ランサムウェア「WannaCry」などがメモリ管理のバグをついてシステムに侵入し、システムを暗号化するなど社会に重大な被害をもたらした。

出典: Generated with Google Imagen 4

Great Refactorとは

Great Refactorは「C」や「C++」で開発されたコードを安全な言語「Rust」に書き換える構想となる。対象はオープンソース・ソフトウェアで、AIエージェントがリファクタリングの作業を担う。オープンソース・ソフトウェアは全米で幅広く使われており社会インフラを構成する。その代表が基本ソフト「Linux」で、そのカーネルは「C」で記述されている。また、Linuxの主要ライブラリも「C」で開発されている。例えば、通信暗号化プロトコール「OpenSSL」やリモートログイン「OpenSSH」が社会で幅広く使われているが、これらも「C」で記述されている。Great Refactorはこれらを「C」や「C++」言語から「Rust」言語に書き換える構想となる。

プロジェクトの概要

この構想はワシントンDCに拠点を置くシンクタンク「Institute of Progress」により提唱された。この提言によると、2030年までにレガシー・コードを書き換え、新たなシステムを開発する。新システムは1億ライン(1億行のコードから構成される)システムとなる。開発に要する費用は五年間で1億ドルとなり、これを政府と民間が共同で出資する。ソフトウェア・インフラが強化されることにより、20億ドルの支出を抑えることができると試算している。

AIエージェントの技術進化

ファウンデーションモデルの技術が急速に進化し、そのキラーアプリケーションはコーディング・エージェントという構図が明らかになってきた。AIエージェントが人間の指示に従ってアプリをコーディングする。AIがエンジニアに代わりソフトウェアを開発する時代に突入した。AI企業はコーディング機能を相次いでアップグレードし、Anthropicの「Claude Sonnet 4.5」がトップの性能を持つ。これをOpenAIの「GPT-5 Codex」が追う構図となる。Googleはコーディング・エージェントを製品化していないが、複雑なプログラミングを実行するモデル「AlphaCode」の研究開発を進めている。

出典: Generated with Google Imagen 4

COBOLレガシー

Great Refactorと並行して、政府機関や民間企業はレガシー・システムをモダン化する作業を進めている。これらのシステムはプログラム言語「COBOL」で書かれ、汎用機(Mainframe Computers)で稼働している。システムは50年以上前に開発され、古いアーキテクチャに準拠しており、新しい機能の追加や保守作業が極めて難しい。社会の基幹インフラはこれらレガシー・システムに構築され、基幹サービスをセキュアに安定して提供することが困難な状態が続いている。

レガシーシステムの事例

連邦政府は税金や年金の処理をCOBOLで書かれたレガシー・システムで実行している。また、民間企業では、銀行の基幹システムがレガシー・システムで構築され、負の資産を引きずっている。また、飛行機予約システム「Programmed Airline Reservations System」がCOBOLで記述され、そのシステムがIBMの汎用機の上で稼働している。米国では頻繁に航空機の運用管理や予約業務で障害が発生するが、その根本原因はCOBOLレガシー・システムにある。

出典: Generated with Google Imagen 4

ソフトウェア・インフラをリファクタリング

Great Refactorはオープンソース・ソフトウェアをAIエージェントで書き直しセキュアなシステムを構築するプロジェクトで、AIの進化でこれが実現可能な領域に入ってきた。同時に、米国では汎用機で稼働しているシステムをモダン化するプロジェクト「メインフレーム・リファクタリング(Mainframe Refactoring)」が進んでいる。汎用機で稼働しているレガシー・システムを書き換えてクラウドに移管するモデルで、AWSやGoogle CloudやMicrosoft Azureが推進している。コーディングAIエージェントの急速な進化で、米国のソフトウェア・インフラをリファクタリングする手法に注目が集まっている。

OpenAIとAnthropicは米国政府と共同でフロンティアモデルの安全評価試験を実施、トランプ政権におけるAIセーフティ体制が整う

今週、OpenAIとAnthropicは相次いで、米国政府と共同でフロンティアモデルの安全試験を実施したことを公表した。また両社は、英国政府と連携し安全試験を実施したことを併せて公表した。トランプ政権は「AIアクションプラン」を公開し、AI技術開発を推進する政策を明らかにし、同時に、米国省庁にAIモデルを評価しリスクを明らかにすることを要請した。OpenAIとAnthropicは米国政府との共同試験で、評価技法やその結果を公開し、米国におけるAIセーフティフ体制のテンプレートを示した。

出典: Generated with Google Imagen 4

米国政府のAI評価体制

トランプ政権はAI開発を推進しリスクを評価する部門として「Center for AI Standards & Innovation (CAISI)」を設立した。これは国立標準技術研究所(NIST)配下の組織で、AIモデルのイノベーションを推進し、フロンティアモデルを評価することを主要な任務とする。CAISIはOpenAIとAnthropicと共同で安全評価プログラムを実施しその成果を公開した。バイデン政権では「AI Safety Institute (AISI)」がAIモデルの安全評価技術開発を推進してきたが、CAISIはこれを引き継ぎ、AI評価標準技術の開発と標準化を目指す。

安全評価の手法

CAISIの主要ミッションは、民間企業が開発しているフロンティアモデルの安全評価を実施し、そのリスクを査定することにある。OpenAIとAnthropicはこのプログラムで、CAISIが評価作業を実行するために、AIモデルへのアクセスを許諾し、また、評価で必要となるツールや内部資料を提供した。CAISIはこれに基づき評価作業を実施し、その結果を各社と共有した。実際に、CAISIの評価により新たなリスクが明らかになり、OpenAIとAnthropicはこれを修正する作業を実施した。

OpenAIの評価:AIエージェント

OpenAIのフロンティアモデルでは、「ChatGPT Agent」と「GPT-5」を対象に、評価が実施された。CAISIはこれらモデルのAIエージェント機能を評価しそのリスク評価を解析した。その結果、AIエージェントはハイジャックされるリスクがあり、遠隔で操作されるという問題が明らかになった。一方、英国政府はAIモデルの生物兵器製造に関するリスクを評価し、数多くの脆弱性を明らかにした。

Anthropicの評価:ジェイルブレイク

一方、Anthropicの評価ではフロンティアモデル「Claude」と安全ガードレール「Constitutional Classifiers」を対象とした。これらのモデルに対しRed-Teamingという手法でサイバー攻撃を実施し、その結果、汎用的なジェイルブレイク攻撃「Universal Jailbreaks」に対する脆弱性が明らかになった。Anthropicはこの結果を受けて、モデルのアーキテクチャを改変する大幅な修正を実施した。

出典: Generated with Google Imagen 4

安全試験のひな型

これらの安全評価はCAISIの最初の成果で、民間企業と共同で試験を実施するモデルが示された。AIアクションプランは米国政府機関に対しアクションアイテムを定めているが、民間企業を規定するものではない。OpenAIとAnthropicは自主的にこのプログラムに参加し安全試験を実施した。また、両社はフロンティアモデルを出荷する前に、また、出荷した後も継続的に安全試験を実施するとしており、この試みが米国政府におけるAIセーフティのテンプレートとなる。

評価技法の標準化

一方、安全評価におけるスコープは両者で異なり、フロンティアモデルの異なる側面を評価した形となった。OpenAIはフロンティアモデルのエージェント機能を評価し、Anthropicはジェイルブレイク攻撃への耐性を評価した。このため、二つのモデルの検証結果を比較することは難しく、統一した評価技法の設立が求めらる。CAISIのミッションの一つが評価技法の開発と国家安全保障に関連するリスク評価で、評価技術の確定と技術の標準化が次のステップとなる。

出典: Generated with Google Imagen 4

米国と英国のコラボレーション

OpenAIとAnthropicは英国政府「UK AISI」と提携して安全試験を実施しており、米英両国間でAIセーフティに関するコラボレーションが進んでいる。CAISIとUK AISIは政府レベルで評価科学「Evaluation Science」の開発を進めており、両国で共通の評価技術の確立を目指している。一方、欧州連合(EU)はAI規制違法「EU AI Act」を施行し、独自の安全評価基準を設定しており、米国・英国とEU間で安全性に関する基準が異なる。EUとの評価基準の互換性を確立することがCAISIの次のミッションとなる。

トランプ政権のセーフティ体制

これに先立ち、OpenAIは米国政府と英国政府が監査機関となり、AIモデルの安全評価試験を実施することを提唱している。米国政府ではCAISIが、また、英国政府ではUK AISICがこの役割を担うことを推奨した。今回の試みはこの提言に沿ったもので、米国と英国でAIモデル評価のフレームワークが整いつつある。バイデン政権では政府主導でセーフティ体制が制定されたが、トランプ政権では政府と民間が協調してこの枠組みを構築するアプローチとなる。

ソフトウェアの50%はAIエージェントがコーディング!!水面下で進むプログラム開発の自動化、エンジニアの雇用が深刻な社会問題となる

米国企業はプログラム開発でAIエージェントを投入し自動化を進めている。開発されるプログラムの50%の部分をAIエージェントがコーディングする。AIコーディング技術は、プログラム開発を支援するモデルから、ソフトウェア開発の一連のプロセスを実行するモデルがあり、その機能が急速に進化している。企業はAIコーディングの導入を進め、プログラム開発の多くの部分をAIエージェントが実行する。このため企業はエンジニアの採用を控え、雇用問題が深刻な課題となっている。

出典: Generated with Google Imagen 4

AIコーディング技術

プログラムを開発するAIコーディング技術が急速に進化し、企業は最新モデルを導入し、ソフトウェア開発を自動化するペースを速めている。AIコーディングは自動的にプログラムを開発する機能を持つが、その機能は二つに分類される。コーディング・エージェントはプログラム開発をアシストする機能を持ち、コーディング作業を効率化する。一方、エンジニアリング・エージェントは高度に自律的なモデルで、人間に代わりソフトウェア開発を実行する。

企業はAIコーディングの導入を進める

この傾向はフィンテック企業で顕著で、プログラム開発の多くの部分をAIコーディングが実行する。サンフランシスコに拠点を置くフィンテック企業CoinbaseはAIコーディングの利用状況を明らかにした(下のグラフ)。プログラム開発においてAIでコーディングした割合が40%を超え、今年4月からその割合が倍増した。ソフトウェア開発の自動化が急ピッチですすんでいる実態が明らかになった。創設者のBrian Armstrongは10月までにこの割合を50%にすると述べており、プログラム開発のオートメーション化が急速に展開される。

出典: Coinbase

巨大テックも自動化を進める

巨大テックもソフトウェア開発の自動化を積極的に進めている。GoogleのSundar Pichaiは決算発表で、新規プログラムの25%の部分がAIで開発されていることを明らかにした。この発表は昨年10月の時点で、現在はその割合が拡大していると思われる。MicrosoftのSatya Nadellaは、新規プログラムの20%から30%がAIで開発されるとしている。また、SalesforceのMarc Benioffは、技術サポートを含むソフトウェア開発の30%から50%がAIで実行されると公表し、ソフトウェア開発で自動化が早いペースで進んでいる実態が明らかになった。

AIコーディングの技法:アシスト

スタートアップ企業を中心に、人間に代わりプログラムをコーディングするAIモデルの開発競争が白熱し、AIコーディング製品が急速に普及している。AIコーディング技法は、コーディング支援からエンジニアリング自動化に向かって進化している。コーディング支援は「IDE Editors」と呼ばれ、IDE(Integrated Development Environment、開発環境)で稼働するAIモデルで、コーディングをアシストする。その代表は「Cursor」(下の写真)で、プログラマが入力したテキストに続くコードを生成する。また、プログラマのコーディングにエラーがあればそれを修正する。

出典: Cursor

AIコーディングの技法:エンジニアリング自動化

これに対しエンジニアリング自動化は一連のソフトウェア開発を自動で実行する機能を持つ。通常、ソフトウェア開発はコーディングだけでなく、ソフトウェア開発の立案、プログラミング、コードの実行、テスト、ドキュメンテーション、と一連のプロセスから成る。エンジニアリング自動化は、このプロセスを人間に代わり自動的に実行するモデルとなる。高度なAIエージェントで、その代表がCognitionの「Devin」となる。(下の写真、DevinによるAIデータ解析システム開発の事例、各モジュール(箱の部分)をDevinがパラレルに実行する)

出典: Cognition

米国で雇用問題が深刻化

AIコーディングは新入社員の採用に深刻な影響を及ぼしている。スタンフォード大学デジタル経済研究所「Stanford Digital Economy Lab」はAIが採用に及ぼす影響を調査し、その結果を公表した。レポートによると、22歳から25歳までのエンジニアの採用は、2022年に比べ20%低下していることが分かった(下のグラフ)。若手エンジニアの職種はAIに置き換わり、企業は採用を控える実態が明らかになった。一方で、31歳以上の熟練エンジニアの採用は継続して伸びており、経験豊富なエンジニアがAIを使ってソフトウェア開発を効率的に展開する形態にシフトする流れが鮮明になった。エンジニアを目指す新卒大学生は氷河期を迎えることになり、その雇用対策が喫緊の課題となる。

出典: Erik Brynjolfsson et al.

なぜAIコーディング技術が急進するのか

AIモデルの中でAIコーディングがキラーアプリとなり、市場で導入が急速に拡大している。AIコーディングが注目される理由はアルゴリズムを教育するデータにある。AIコーディングはフロンティアモデルをベースとし、「強化学習(Reinforcement Learning)」という手法でポスト教育される。その際に、教育データとして実際のコーディング事例が使われる。コーディングでは、その内容が正しいか間違っているかが明瞭で、強化学習で報酬(Rewards)をデジタル(1か0)に設定できる。これは「Verifiable Rewards」といわれ、結果が正しいか間違いかを明瞭に判定でき、アルゴリズムの教育を高精度で実行できる。このため、AIコーディングの開発が急加速し、若手エンジニアレベルに到達した。

出典: Generated with Google Imagen 4

エンジニアの役割が変わる

これからAIによるコーディングの範囲が広がり、AnthropicのDario AmodeiはAIがソフトウェアの90%を開発するとの見通しを公表している。コーディング作業が高度に自動化される可能性を示した。一方、ソフトウェア開発ではAIコーディングでカバーできない部分は大きく、これらがエンジニアの主要な任務となる。具体的には、アプリケーションのデザインやアーキテクチャの選択などで、これらがエンジニアの中心業務となる。更に、これからは多数のAIエージェントが並列でプログラミングを実行し、人間はこれらを管理運用する管理職となる(上の写真、イメージ)。次世代のエンジニアは全員がプロジェクト・マネジャーとなり、コーディング技術だけでなくシステム設計などハイレベルなスキルが求められる。

Google「ナノ・バナナ」の衝撃!!米国メディア業界が激変、最新モデルGemini 2.5 Flashが画像を編集しフォトショップを置き換える

Googleは今週、イメージを編集するAIモデル「Gemini 2.5 Flash Image」を公開した(下の写真、イメージ)。このモデルは“ナノ・バナナ(Nano Banana)”の愛称で呼ばれ、入力した写真をプロンプトに従って編集する機能を持つ。Adobe Photoshop(アドビ・フォトショップ)の機能をAIモデルが代行するもので、言葉でイメージを編集でき、米国で爆発的に利用が広がっている。実際に使ってみると、プロのクリエーターではなく素人がエンタープライズ品質のクリエイティブを簡単に生成でき、AIイメージの中で最先端を走る製品であると実感する。

出典: Generated with Google Gemini 2.5 Flash

ナノ・バナナの概要

“ナノ・バナナ”の機能はシンプルで、写真をアップロードし、これをプロンプト(言葉)で編集することができる。多くのAIモデルが同等の機能を搭載しているが、ナノ・バナナが決定的に異なるのは、入力した写真のイメージを忠実に保持することにある。写真に写っている人物の顔イメージを正確に記憶し、これを編集して出力する。結果はフォトショップで編集したように、入力イメージを正確に保持し、指示されたタスクをピンポイントで実行する。(下の写真、ジュリア・ロバーツの顔写真(左側)を芸術家(右側)に編集したもの、顔イメージが正確に再現されている。)

出典: Generated with Google Gemini 2.5 Flash

ナノ・バナナの使い方

ナノ・バナナはGoogleのAIクラウド「Google AI Studio」で利用する。メディア生成のページで「Nano Banana」を選択する。このページでイメージ生成モデル「Imagen」やビデオ生成モデル「Veo」などを使うことができる。また、Geminiアプリからナノ・バナナを使うことができる。GoogleはGeminiシリーズでマルチモダルを基盤とする応用技術の開発を重点的に展開している。

出典: Google

コア機能1:イメージを編集

ナノ・バナナの基本機能はイメージを編集する機能で、入力した写真をプロンプトで編集することができる。テイラー・スウィフトの顔写真を入力し(上段)、「東京のファッションモデル」に編集するよう指示すると、渋谷の交差点でポーズをとるシーンが生成される(下段)。ナノ・バナナは顔イメージから全体像を生成し、背景に渋谷交差点のイメージを生成する。

出典: Generated with Google Gemini 2.5 Flash

コア機能2:イメージのフュージョン

ナノ・バナナは二つの写真を合成して新たなイメージを生成する機能がある。トランプ大統領(左端)とゴールデンリトリバー(中央)の写真を入力し、「ホワイトハウスで大統領が犬を抱いているイメージ」を生成するよう指示すると、そのシーンが生成される(右端)。ナノ・バナナは著名人をフィルタリングすることなく、アルゴリズムが編集イメージを出力する。

出典: Generated with Google Gemini 2.5 Flash

コア機能3:マルチステップ

ナノ・バナナは対話形式でイメージを編集していく機能がある。シャンゼリゼ通り(上段)をクリスマスのシーンに編集する際に、ステップごとにオブジェクトを追加することができる。最初のステップでクリスマス飾りをインポーズし、次の段階でサンタクロースのパレード(下段)を付加できる。企業などがアイディアをステップごとにブレーンストーミングし、最終モデルを生成するなどの使い方が想定される。

出典: Generated with Google Gemini 2.5 Flash

コア機能4: イマジネーション

ナノ・バナナは入力したイメージをシードとし指示されたオブジェクトを生成する。桜の花の写真を入力し(上段)、「このデザインの着物を生成」するよう指示すると、桜の花をあしらった着物を生成する。「モデルがこの着物を着てニューヨークのタイムズスクエアを歩くイメージ」を指示すると、このシーンがリアルに生成される(下段)。

出典: Generated with Google Gemini 2.5 Flash

ファウンデーションモデル

ナノ・バナナはファウンデーションモデル最新版「Google Gemini 2.5 Flash」をベースとするAIモデルとなる。Gemini 2.5 Flashはネイティブのマルチモダルで、イメージ(写真)とテキスト(プロンプト)を単一のニューラルネットワークで処理することができる。ナノ・バナナは世界のナレッジを有し、イメージやテキストのコンテクストを理解し、プロンプトの命令を正確にイメージに反映する。

イメージの一貫性

AIモデルでイメージを生成する際の最大の課題がオブジェクトの一貫性(Consistency)で、シーンが変わっても、オブジェクトの形状が変わらないことが最重要エレメントとなる。ナノ・バナナは、入力したイメージが変わることなく、その形状やシーンを忠実に再現する。女性の顔や背景のシーンが維持され、出力される画像に高精度に反映される(下の写真)。他のAIモデルでイメージを編集すると、入力した写真の顔が微妙に変形し、これがクリエイティブ作成の最大のネックとなっている。

出典: Google

イメージの一貫性を保つ技法

Gemini 2.5 Flashはこの一貫性を実現するために複数の手法を使っている。その一つが前述のマルチモダルで、テキストとイメージを単一のモデルで処理する。もう一つがイメージを編集する手法で、アルゴリズムは写真ではなくそれを圧縮したデータを対象とする。圧縮したデータは「Latent Space」と呼ばれ、入力したイメージを「Embedding(埋め込み)」という手法でベクトル化したものとなる。AIモデルは編集処理をこのLatent Spaceで実行し、オブジェクトは一貫性を保つことができる。(下の写真、入力した写真(左側)を様々なシーンに編集するが(右側)、顔イメージは異感性を保つ)

出典: Generated with Google Gemini 2.5 Flash 

ウォーターマーク

ナノ・バナナは生成したイメージはAIで造られたものであることを示すためウォーターマーク(Watermark)を挿入する。生成されたイメージの右下にGeminiのロゴを表示する。また、イメージの中に人間の眼では識別できないデジタルなウォーターマークを挿入する。これはGoogle DeepMindが開発した「SynthID」という手法が使われ、生成したイメージの出典などのメタデータが添付される。ナノ・バナナで生成した画像は、人間の眼では真偽を判別することができないため、ウォーターマークが必須となる。

メディア業界が激変

専門家が高度なツールを使って広告などのコンテンツを生成してきたが、ナノ・バナナを使うことで、誰でもがクリエーターになれる時代となった。Adobe Photoshopを使うスキルが無くても、プロレベルのコンテンツを生成でき、メディア業界のビジネスモデルが大きく変わる。同時に、ソーシャルメディアにはAIで生成したイメージやビデオが大量にポストされ、所謂“フェイクイメージ”が日常生活の一部を構成する。消費者はフェイク時代を生き延びるためのノウハウを修得することが新たな課題となる。