GoogleはGeminiの機能を拡張、検索エンジンに統合しAIが回答を生成、現実社会で活躍するAIアシスタントを初公開、開発者会議「Google I/O」の重要ポイントをレビュー

Googleは5月14日、開発者会議「Google I/O」で生成AI「Gemini」の最新情報を公開した。基調講演でSundar Pichaiは「Geminiの時代が到来した」と述べ、AIをビジネスの基盤とし、それを検索エンジンなど主要サービスに統合。また、高速モデル「Gemini Flash」がリリースされ、これを基盤とするAIアシスタントの構想が示された。今年のGoogle I/OはGemini一色の開発者会議となった。

出典: Google

Geminiの機能アップ

Googleは昨年12月、フロンティアモデル「Gemini」を投入した。更に、今年2月には高速モデル「Gemini Pro 1.5」を投入し、業界トップの性能をマークした。Geminiの特徴はコンテクスト・ウインドウ(入力できるデータサイズ)が大きいことで、最大で100万トークン(言葉の単位)を処理できる。開発者会議ではこれを拡大し、200万トークンをサポートすることを明らかにした。また、Googleはモデルの処理速度を向上した「Gemini Flash」を投入した(下の写真)。「Gemini Pro」が大規模モデルで機能性を追求するが、「Gemini 1.5 Flash」はスリムなモデルで高速処理を実現した。会話などリアルタイムの応答が求められるアプリケーションで使われる。

出典: Google

検索エンジンをGeminiで強化

GoogleはGeminiを検索エンジンに組み込んだ検索サービス「Search Generative Experience」を試験的に運用してきた。Googleはこの検索サービスを強化した「AI Overviews」を開発し、来週からアメリカで展開する。AI Overviewsとは、ズバリ回答を生成する機能で、複雑な質問に対し、Geminiが情報を統合し、回答を生成する。例えば、グループで共同生活する際に、三日間の食事のメニューを尋ねると、検索エンジンはこれをテーブル形式に纏めて回答する(下の写真)。

出典: Google

ビデオでの質問に回答

質問をテキストではなくビデオで尋ねると、検索エンジンはこれに回答する。例えば、旧式のレコードプレーヤーのアームが動かなくなった際は、それをビデオで撮影し(下の写真右側)、検索エンジンに入力し、対処法を尋ねるなどの使い方ができる(左側)。

出典: Google

マルチモダル:「Imagen 3」と「Veo」

Geminiの特徴はネイティブのマルチモダル構造を取ることで、テキストの他にイメージやビデオやボイスを入出力することができる。単一のネットワークでマルチモダルを処理するアーキテクチャとなる。Googleはテキストからビデオを生成するモデル「Veo」を投入した。Veoはプロンプトを正確に理解し高解像度(1080p)の映像を生成する。Veoはクリエータがビデオを制作するすることを目的に開発され、映画のシーンのような映像を生成する。(下の写真:「香港の街並みを走り抜けるクルマ」。URL:https://www.youtube.com/watch?v=diqmZs1aD1g)

出典: Google

イメージ生成モデルの強化

テキストからイメージを生成するモデルの最新版「Imagen 3」がリリースされた。このモデルは解像度が向上し、写真撮影したような極めてリアルなイメージを生成する。また、プロンプトを理解する能力が向上し、指示された意図を正確に把握してイメージを創り上げる。(下の写真:「渓谷を流れる川と緑の木々に覆われた山々」)

出典: Google

ワークスペースの機能拡張

Googleはオフィス製品「Workspace」を提供している。WorkspaceはGmail、Docs、Sheets、Slidesで構成され、ここにGeminiを統合し、生産性を向上してきた。これは「Gemini for Google Workspace」と呼ばれ、ここに最新モデル「Gemini Pro 1.5」が統合され、機能が大きく拡張した。これにより、Gmailは受信したメールの要約を生成する(下の写真)。サイドパネルで受信したメールを要約するよう指示すると、Geminiはメール毎にその内容を簡潔にまとめる(右側のカラム)。これは、小学校のPTA会議に関するメール4通の要約を生成した事例で、メール本文を読まないで会議の内容を理解できる。

出典: Google

未来のAIアシスタント:Project Astra

GoogleはAIアシスタントのコンセプト「Project Astra」を初公開した。AIアシスタントはGemini 1.5 Flashに構築されたモデルで、人間のように視覚を持ち、言葉の指示に従ってタスクを実行する。AIアシスタントは現実社会で周囲のオブジェクトを理解し、問われたことに対しリアルタイムで回答する。この処理を実行するためには、高速のイメージ処理と会話機能が求められ、Gemini Flashがこの要件を実現する。(下の写真:スマホカメラでオフィス内部をスキャンし、「音を発生するデバイスを見つけたら知らせて」と指示すると、AIアシスタントは「スピーカーを見つけた」と回答。)

出典: Google

Geminiの時代

今年のGoogle I/OはAIフロンティアモデル「Gemini」を主軸とする開発者会議となった。Geminiはチャットボットではなく、Google Cloudで社会のインフラを支える存在となる。また、検索エンジンにGeminiが組み込まれ、生成AI検索が標準となり、Googleのビジネスが激変する。更に、GoogleはGemini FlashでAIアシスタントのコンセプトを示し、AIがデジタルからリアルの社会に降りてきて、人間レベルの知能を持つ「AGI」に繋がる構想を明らかにした。

セキュリティ = 人工知能:サイバーセキュリティ国際会議「RSA 2024」はAIが中心テーマ、究極の諸刃の剣をどう安全に活用するか

サイバーセキュリティの国際会議「RSA 2024」がサンフランシスコで開催された(下の写真)。セキュリティ会議であるがその中心テーマはAIで、AIに関連する技術や政策が議論された。また、AIが高度に進化し、そのプラス面とマイナス面が顕著となり、この諸刃の剣をいかに安全に活用するかに話題が集中した。更に、米国政府はAIの安全活用と危険低減を全力で推進しており、国務省長官などがバイデン政権のデジタル外交政策などを明らかにした。

出典: VentureClef

米国政府高官の基調講演

基調講演では国務長官Antony Blinkenが米国のデジタル外交政策を解説した(下の写真)。米国は同盟国と連携し、AIや量子コンピュータで世界をリードする必要性を強調。国土安全保障省長官Alejandro Mayorkasは対談形式で、米国基幹インフラをサイバー攻撃から防御する政策を明らかにした。AIは「Dual-Use Technology(民生と軍事のデュアル技術)」であり、サイバー攻撃をAIで防御するとともに、AIが内包する危険性を低減する政策を明らかにした。多くの米国政府高官が国際会議に出席し、AIとセキュリティに関する政策を講演し、AI時代における米国政府のポジションを明らかにした。

出典: RSA

AIブームに強い警鐘を鳴らす

その中で、注目すべきセッションは「Artificial Intelligence: The Ultimate Double-Edged Sword(AIは究極の諸刃の剣)」で(下の写真)、パネルディスカッション形式で、AIの活用法と制御法が議論された。高度なAIはプラス面が大きいが、同時に、社会に重大な危険性をもたらす。パネルは、AIに関する基本的なポジションを議論し、危険なAIをどう制御するか、同時に、高度なAIの恩恵を社会がどう享受すべきかについて意見が交わされた。パネリストは、技術開発は生成AIに過度に偏り、また、AIモデルの危険性が正しく理解されていないと、強い警告メッセージを発信した。

出典: VentureClef

パネリストの概要

パネリストは、米国司法省副長官Risa Monaco(下の写真左側)とスタンフォード大学教授Fei-Fei Li(右側)で構成され、バイデン政権のAI諮問委員Miriam Vogelがモデレータを務めた。Monacoは司法省でAIにより国民が不利益を被らないための政策を展開している。MonacoはAIが社会に脅威をもたらすとのポジションを取り、「Dr. Doom(破滅主義者)」と呼ばれている。一方、Liはスタンフォード大学でAI研究所「Human-Centric AI」の所長を務め、AIが人類の幸福に貢献する研究をミッションとしている。

出典: Department of Justice / Stanford University

Monacoの主張:AIの危険性を低減すべき

Lisa Monacoは司法省でAIを導入してプロセスを効率化すると共に、AIが国民の権利を侵害しないよう政策を進めている。司法省は配下の連邦捜査局(FBI)を中心に、犯罪組織やテロリストや敵対国による脅威をAIで検知するなど、ガードレール技術を展開している。また、今年は大統領選挙の年で、AIによる情報操作や偽情報の生成を重点的に警戒していることを明らかにした。

Liの主張1:AIの危険性が過度に強調されている

LiはAIに関する考え方に強い警鐘を鳴らした。LiはAIが人類の福利に寄与することを目的として研究を進めており、高度なAIで医療技術を進展させ、科学技術の進化に寄与することを期待している。同時に、いまのAI研究者はAIの危険性を過度に強調し、AI像が歪んでいると警告した。特に、AIが人類を破滅に導くという「Doom」という考え方に強い反対意見を開示した。破滅論の議論に時間を割く前に、目の前にあるAIの危険性を低減することが、研究者に課せられた喫緊の課題であると主張。

Liの主張2:AI市場は言語モデル開発に偏りすぎている

Liはまた、AI研究が過度に言語モデルに偏向しており、AI研究開発が歪んでいると警告した。ChatGPTの衝撃で、リソースが大規模言語モデルに集中しているが、このアプローチではAIがインテリジェントになれないと主張。実際に、Liはスタートアップ企業を創設し、ここでAIのインテリジェンスを開発している。具体的には、「World Model」というコンセプトのもと、AIが実社会のオブジェクトとインタラクションすることで、社会の常識を身につけ、人間のような知識を習得する。この基礎研究がロボティックスに応用でき、また、最終的には人間レベルのインテリジェンス「AGI」に繋がる。

出典: VentureClef

AIのイノベーションが求められる

米国政府はバイデン政権のAI規制政策基本指針である大統領令に沿って、AIのイノベーションを後押しし、AIの危険性を低減する活動を推進し、大きな成果を示している。一方、AIの成果は一部の巨大テックが独占し、利益や権益が偏り、健全な競争が阻害されていることが重大な問題となっている。このため、Liはアカデミアやスタートアップ企業が活躍できる環境の整備が必要であるとし、連邦政府にAI開発環境の整備やオープンソースの普及を求めた。AI市場は寡占状態で技術進化が特定の方向に偏り、再びAIで技術革新が求められる。

中国は生成AIを使ったサイバー攻撃を開始、Microsoftは東アジアのセキュリティリスクを分析、日本や米国に対する情報操作の脅威が増すと警告

MicrosoftはAIを使ったサイバー攻撃に関する分析レポート「Microsoft Threat Intelligence」を公開した。これは東アジアにおける脅威を分析したもので、中国は生成AIなど高度な技術を導入し、攻撃手法が進化していると警告。福島原子力発電所の処理水の放出に関し、生成AIで作成した偽画像が使われ、危機感を煽るキャンペーンが展開された。台湾の総統選挙においては、AIで生成したイメージが急増した。米国では、大統領選挙に向けて、国民世論を分断する試験が繰り返されていると警告している。

出典: Microsoft

サイバー攻撃分析レポート

このレポートはMicrosoftのサイバー攻撃分析センタ「Microsoft Threat Analysis Center (MTAC)」が発行したもので、中国と北朝鮮によるサイバー攻撃の実態と動向を分析している。レポートは、サイバー攻撃の特徴として、件数が増大したことに加え、生成AIが導入され、攻撃技術のレベルが上がったと指摘する。従来からサイバー攻撃にAIが使われているが、生成AIを導入することで高精度な偽画像を容易に生成できるようになった。

レポートの要旨

レポートは、従来型のサイバー攻撃に加え、ソーシャルメディアを使った情報操作の技術が向上し、危険性が増大したと結論付けている。サイバー攻撃は二種類あり、1)サイバー攻撃(Cyber Operations)と2)情報操作(Influence Operations)となる。前者はマルウェアなどによる従来型のサイバー攻撃で、後者はソーシャルメディアを使った情報操作を指す。レポートの要旨は:

  • 中国:南太平洋諸島や南シナ海や米国の軍事企業を対象にしたサイバー攻撃が継続されている。情報操作活動については、生成AIなど新しい技術を導入し、その実証試験を通じ、効果の検証を進めている。
  •  北朝鮮:サイバー攻撃が中心で、ソフトウェア・サプライチェーン攻撃やランサムウェア攻撃で重大な被害が発生している。

中国による情報操作

レポートは中国による情報操作を特に警戒している。生成AIなど高度なAIを使い、イメージを生成・編集するもので、これらをソーシャルメディアで拡散し、世論分断などの情報操作を実行する。ビデオやイメージや音声などが使われ、攻撃対象は米国の他に、台湾、日本、韓国など東南アジアの国々が含まれる。現時点では生成AIを使った情報操作の試験段階であり、様々な手法が試され、その効果を検証していると分析。

情報操作の事例:福島原子力発電所の処理水放出

中国の情報操作はソーシャルメディアにアカウントを設け、ここから偽情報を発信し国民の世論を操作する手法を取る。このオペレーションでは「Storm-1376」というアカウントが使われ、ここから偽情報が発信された。福島第一原子力発電所が処理水を放出したことに関し、日本政府を非難するメッセージが日本語、韓国語、英語で大量に発信された。この情報操作の特徴は生成AIで作成されたイメージが使用されたことにある(下の写真左側)。また、他のアカウントのコンテンツを再利用したケースもある(中央と右側)。また、韓国に向けて発信された情報操作では、日本政府の措置に反対する運動を喚起するもので、日本と韓国の分断を助長することを目的としている。

出典: Microsoft

情報操作の事例:マウイ島の山火事

ハワイ・マウイ島で2023年8月、大規模な山火事が発生し、多くの人が犠牲になった。米国で発生した山火事としては過去100年で最悪の被害といわれている。上述のアカウント「Storm-1376」は山火事に関して偽情報を複数のソーシャルメディアで発信した。山火事は米国政府が「気象兵器(Weather Weapons)」を試験するために意図的に出火したものであるとの陰謀論を展開。ソーシャルメディアに海岸に面した住宅地での火災の写真が掲載されたが、これらはAIでイメージを誇張したもので、読者の危機感を煽る仕組みとなっている(下の写真)。

出典: Microsoft

米国大統領選挙に向けた攻撃準備

中国の情報操作は米国においては、大統領選挙に向け攻撃手法の準備を目的に進められている。実際に、米国の有権者の意見を理解するためのオペレーションを開始した。米国で世論が二分されているテーマについて取り上げ、有権者の意見を聴取するコンテンツを発信。地球温暖化、国境警備、違法薬物、移民政策、人種問題に関する写真などを掲載し、有権者に「国境警備の費用に200億ドルの予算が充てられるが、これをどう思うか」などと問いかける(下の写真右側)。国民の考え方を把握し、大統領選挙では国民の世論を分断する偽情報を発信することを目的としている。

出典: Microsoft

主要国で選挙が行われる

今年は、インド、韓国、アメリカで重要な選挙が行われる年で、中国はこの機会を利用して世論操作を展開するとレポートは分析している。既に、1月に実施された台湾の総統選挙では、AIで生成したイメージやボイスが使われ、情報操作の新たな手法が示された(下の写真、コンテンツはAIで誇張したイメージやボイスから、AIで生成したものに進化)。偽のイメージやボイスを合成するために生成AIが使われており、これらを検知する技術の確立が求められる。

出典: Microsoft

生成AIによる攻撃をどう防ぐか

米国に対するサイバー攻撃はロシアが主導してきたが、ウクライナ戦争の影響なのか、米国における活動が低下している。この空白を埋めるように、今では中国が米国に対する情報操作活動を展開している。攻撃ツールとして生成AIが使われ、警戒感が高まった。生成AIによる攻撃手法を完全に把握できてなく、これをどう防御するのか議論が広がっている。生成AIによる攻撃は、生成AIで防御すべきとの考え方もあり、セキュリティ技術の開発が喫緊の課題となる。

バイデン政権の大統領令の安全基準に準拠した最初の生成AI「Aurora-M」を開発、政府の規定に従い「Red-Teaming」の手法で危険性を除去

バイデン政権は大統領令で開発企業に製品出荷前に生成AIの安全を確認することを求めた。研究者グループは、この規定に従ってモデルを試験し、危険性を排除した生成AI「Aurora-M」を開発した。大統領令が適用されるのは次世代の生成AIであるが、研究グループはこれに先行し、Red-Teamingの手法で危険性を検知し、極めて安全なモデルを開発した。Aurora-Mはオープンソースとして公開され、セキュアなモデルを開発するための研究で利用される。

出典: Hugging Face

Aurora-Mとは

Aurora-Mはオープンソースの大規模言語モデル「StarCoderPlus」をベースとするモデルで、研究者で構成される国際コンソーシアムが開発した。Aurora-Mは大統領令で規定された条件に準拠して、StarCoderPlusの脆弱性を補強する手法で開発された。また、StarCoderPlusを多言語で教育することで、Aurora-Mはマルチリンガルな生成AIとなった。

大統領令で定める安全基準

バイデン政権は2023年10月、大統領令「Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence」を発行し、大規模言語モデルを安全に開発し運用することを規定した(下の写真)。開発企業に対しては、大規模言語モデルが社会に危険性をもたらすことを抑止するため、製品出荷前に安全試験を実施することを求めた。対象となるモデルは、デュアルユースの生成AIで、次世代モデル(GPT-5などこれからリリースされる大規模言語モデル)が対象となる。

出典: White House

大統領令の規制内容

大統領令は契約書のように企業や団体が準拠すべき義務を詳細に規定している。これによると、開発企業は「Red-Teaming」の手法でAIシステムの問題点や脆弱性を検知し、それを修正することを求めている。開発者が攻撃団体となり、AIシステムを攻撃して、問題点や脆弱性を洗い出す。具体的には、AIシステムが生成する有害なコンテンツや、AIシステムの予期できない挙動や、AIシステムが悪用された時のリスクを検証する。特に、セキュリティや国家経済や社会の安全性に及ぼすリスクを低減することを目的とし、下記のリスクを重点的に検証することを求めている:

  • CBRN兵器:AIシステムで化学・生物・放射線・核兵器を開発するリスク
  • サイバー攻撃:AIシステムで攻撃対象システムの脆弱性を検知するリスク
  • 人間の制御を逃れる:AIシステムが目的を達成するため人間を騙し制御をすり抜けるリスク

Red-Teamingとは

Red-Teamingとは、AIモデルの問題点や脆弱性を検証する手法で、開発チームが攻撃グループ「Red Team」と防御グループ「Blue Team」に分かれて実施する(下の写真)。言語モデルに関しては、攻撃グループがAIシステムに有害なプロンプトを入力し、モデルが本来の仕様とは異なる挙動をすることを誘発する。これにより、AIシステムが核兵器を生成するための手引書を出力するなど、危険な挙動を導き出す。この情報を元に、防御グループがAIシステムのアルゴリズムを最適化し、危険性を抑制する対策を施す。

出典: Crowdstrike

モデル攻撃のためのプロンプトとモデルの再教育

Red-TeamingではAIシステムを誤作動させるため、多種多様なプロンプトを入力して、モデルの脆弱性を検証する。AIシステムは攻撃用のプロンプトに対し、危険な情報を出力するが、この結果を人間がレビューして、これらをモデルの再教育で利用し安全な回答の仕方を教える。例えば、爆弾の製造方法を問われたら、回答できないと答えるが、Minecraftゲームに関する質問では、爆弾の作り方を教えてもよいと、AIシステムを再教育する(下の写真)。このケースでは数千の再教育データが使われ、大統領令で規定された項目に準拠するAIシステムを作り上げた。

出典: Hugging Face

今年から安全試験が始まる

大統領令の規定によると、出荷前に安全試験を義務付けられるのは一定規模を超える言語モデルで、現行製品は対象外で、次世代の大規模モデルからこの規定が適用される。Aurora-Mは対象外で事前試験の義務はないが、安全なシステムを開発するためこの規定に準拠した。Aurora-Mは大統領令が施行される前にこれを実施し、安全なシステムのモデルケースとなる。今年は、OpenAIからGPT-5がリリースされ、大統領令で規定された安全試験が実施されることになる。

Metaは生成AI最新モデル「Llama 3」を公開、オープンソースがクローズドソースの性能を追い越す!!企業や研究機関は高速モデルを自由に利用でき選択肢が広がる

Metaは生成AI最新モデル「Llama 3」をオープンソースとして公開した。最上位モデルはGPT-4レベルの性能で、オープンソースが業界トップに到達した。Llama 3はAWSなど主要なクラウドで公開され、この環境でモデルを利用できる。また、MetaはLlama 3をベースとするAIアシスタント「Meta AI」の運用を開始した。FacebookやInstagramなどでチャットボットとしてユーザと対話する。高度な生成AIをオープンソースとして公開すると、これが悪用される危険性があるため、Metaはセキュリティに関する様々な技術を公開した。

出典: Meta

発表概要

Metaは4月18日、生成AI最新モデル「Llama 3」を投入し、これをオープンソースとして公開した。モデルのソースコードや重み(Weights)が公開され、企業はこれをダウンロードして独自のAIシステムを構築できる。また、Llama 3はAWSやGoogle CloudやMicrosoft Azureなど主要なクラウドで利用できる。更に、Llama 3をベースとするAIアシスタント「Meta AI」の運用を開始した。これはChatGPTのようなチャットボットで、ウェブやソーシャルメディアで対話形式で利用する。MetaはオープンソースであるLlama 3が悪用され社会に危険性をもたらすことを防ぐため、様々なセキュリティ技術を開発しこれを公開した。

Llama 3のモデル

発表されたLlama 3は三つのサイズと二つのタイプから構成される。サイズはモデルのパラメータの数で示され、小型モデルと中型モデルが公開され、大型モデルは開発中で今後リリースされる。タイプはモデルの教育方法を示し、基礎教育モデルと最適化モデルとなる:

モデルのサイズ

  • 小型モデル:Llama 3 8B (80億パラメータ)
  • 中型モデル:Llama 3 70B (700億パラメータ)
  • 大型モデル:Llama 3 400B (4000億パラメータ、開発中)

モデルのタイプ

  • 基礎教育モデル:Pre-trained (一般的な教育を実施したモデル)
  • 最適化モデル:Instruction-Fine-Tuned (上記のモデルを人間の命令に従うよう最適化したモデル、高性能モデル)

ベンチマークテスト

Llama 3は生成AIの小規模と中規模クラスでトップの性能を示した。小型モデル「Llama 3 8B」は、フランス企業Mistral社の「Mistral 7B」を追い越した(下のグラフ左側)。中型モデル「Llama 3 70B」はGoogleの「Gemini Pro 1.5」を上回った(右側)。大型モデル「Llama 3 400B」はまだ開発中であるが、Metaは途中経過の性能を公開し、それによるとOpenAI GPT-4-Turboと互角の性能となる。オープンソース生成AIが業界トップの性能を達成した。

出典: Meta

アーキテクチャ

Llama 3が高い性能を実現したのはアーキテクチャの改良によるところが多い。Llama 3はLlama 2と同様に「Decoder-only Transformer」というアーキテクチャを採用している。テキストを生成することに重点を置いたシステムで、これが生成AIの事実上の標準アーキテクチャとなっている。一方、Llama 3は様々な技法でアーキテクチャを改良した。その中心は、「Tokenizer」のサイズを拡大したことと、「Grouped Query Attention (GQA)」という方式を採用したことにある:

  • Tokenizer:モデルが一度に処理できるトークンのサイズ。Llama 3は128KでLlama 2から4倍に拡大し処理効率が向上。
  • Grouped Query Attention (GQA):アテンション機構で情報を共有する仕組み。これによりインファレンス処理を高速化。Llama 3は小型モデルと中型モデルにこれを採用。

データ:サイズを拡大し品質を向上

Llama 3では教育データのサイズを拡大し、また、データの品質を向上した。教育データのサイズは15Tトークンと、Llama 2に比べて四倍に拡大。また、教育データの中でプログラムコードの量が増え、Llama 3はコード生成機能が強化された。更に、教育データの5%が英語以外の言語で、マルチリンガルに向かっている。データの品質に関しては、フィルタリング機能を改良し、有害なコンテンツや重複しているデータを排除した。また、テキストの分類機能を導入し、データの品質を向上し、これらがモデルの性能改善に大きく寄与している。

スケーリング:大量のデータで小規模モデルを教育

MetaはLlama 3の開発で、教育データのサイズと教育に要する計算量が最適の組み合わせになるポイントを探求した。モデルの規模を大きくすると少ない量の教育データで性能を上げることができる。しかし、このためには多くの計算量が必要となりコストが増大する。Llama 3の開発では、教育データの量を増やすことで小さいモデルでも高い性能を実現できる構造を探求した。大量の教育データ(15Tトークン)で小さなモデルを教育することで高性能のシステムを実現した。

セキュリティ

オープンソースを基盤とするAI開発では、利用企業がモデルを倫理的に運用する責任を負うが、MetaはLlama 3に安全機能を組み込むなどセキュリティ技術を強化した(下の写真)。MetaはLlama 3を最適化するプロセスで「Red Teaming」という手法でモデルの安全性を検証した。これは開発者がモデルを攻撃し、その危険性を洗い出す手法で、サイバーセキュリティや化学兵器・生物兵器の生成などの観点から安全性を検証した。更に、Llama 3向けのセキュリティ技術を開発しこれらを公開した:

  • Llama Guard 2:ファイアーウォールとして機能し危険なプロンプトや不適切な出力をフィルタリング
  • CyberSecEval 2:モデルがサイバー攻撃で悪用される可能性を査定する
  • Code Shield:モデルがプログラムを生成する際に、その中で危険なコードを検知する
出典: Meta

主要クラウドに展開

Llama 3はAWSやGoogle Cloud(下の写真)やMicrosoft Azureなど主要なクラウドで利用できる。更に、Llama 3はビッグ3の他に、Databricks、Hugging Face、Kaggle、IBM WatsonX、NVIDIA NIMなど、専門サイトのクラウドで利用できる。MetaはLlama 3を多彩なクラウドで展開しており、開発者は用途に応じて開発運用基盤を選択できる。

出典: Google

Meta AI

Llama 3はクラウドで展開されるだけでなく、Metaは社内でこのモデルを利用している。Llama 3はAIチャットボット「Meta AI」として運用されており、ウェブサイトでLlama 3と対話形式で生活やビジネスに必要な情報を得ることができる(下の写真)。このサービスにおいてはMicrosoftとGoogleの検索エンジンとリンクしており、最新情報を提示する。また、Metaは「Meta AI」をソーシャルメディアに実装する計画で、Facebook、Instagram、WhatsAppからAIチャットボットを使うことができる。

出典: Meta

オープンソースとして公開する理由

ZuckerbergはMetaが開発するAIを一貫してオープンソースとして公開する方針を維持している。モデルを公開する理由は技術開発のペースを上げることで、MetaはコミュニティのLlamaに関するフィードバックをベースに技術改良を進めている。また、Zuckerbergは高度な生成AIがOpenAIとGoogleの二社にコントロールされることを危惧している。スマートフォンの基本ソフトがAppleとGoogleに制御され、活発な技術革新が阻害されていると指摘する。これを教訓に、Metaは生成AIを幅広く公開し、イノベーションを加速させる戦略を取る。一方、Zuckerbergはオープンソースの危険性を把握しており、事前にモデルを検証し、安全が確認されるとこれを公開するとしている。市場でオープンソースの生成AIが急速に普及しており、Llama 3がこの流れを加速させ、市場構成が大きく変わり始めた。