カテゴリー別アーカイブ: セキュリティ

Googleは生成AIでサイバー攻撃を防御、アルゴリズムが人間に代わりマルウェア検知しセキュリティを強化

サンフランシスコでセキュリティの国際会議「RSA Conference 2023」が開催された。今年の中心テーマは生成AIで、ChatGPTを悪用した犯罪とその防御方法が議論された。セキュリティ企業は生成AIを活用した次世代の防衛技術を公開した。Googleは世界最大規模の生成AIを開発しており、これをベースにしたセキュリティ技術を公開した。

出典: VentureClef

生成AIによる防衛技術

Googleは生成AIを使ったセキュリティ技術「Cloud Security AI Workbench」を公開し、RSA 2023で注目を集めた(上の写真)。AI WorkbenchはGoogleが開発した大規模言語モデル「Sec-PaLM」に構築されるセキュリティ技術で、高精度でマルウェアを検知する機能を持つ。Sec-PaLMとは、名前が示すように、世界最大規模の生成AI「PaLM」をベースとするシステムで、これをセキュリティに特化したモデルにアップグレードした。つまり、世界最大規模のセキュリティ向け生成AIとなる。

セキュリティ向け教育データ

AI Workbenchの教育では、セキュリティに関する大量のデータが使われ、モデルはマルウェアに関する高度なスキルを学習した(下のグラフィックス)。これは「セキュリティ・インテリジェンス」と呼ばれ、Googleが収集したデータの他に、パートナー企業であるMandiantが保有するデータが使われた。具体的には、システムの脆弱性、マルウェア、攻撃のシグナル、攻撃の特性やその挙動などに関するデータで教育され、アルゴリズムはサイバー攻撃に関する包括的なスキルを学習した。

出典: Google

AI Workbenchの機能

AI Workbenchは世界最大規模の生成AIをベースとするシステムで、セキュリティに関するプロセスを自動化する。AI Workbenchは、システムに対する攻撃を把握し、これに対する防衛機能を自律的に実行する。また、システム全体を検証し、セキュリティに関する問題点などを指摘する。AI Workbenchの主要機能は:

  • サイバー攻撃を把握:セキュリティに関する大量のデータ(セキュリティのログや通信トラフィックなど)を解析しサイバー攻撃の兆候を把握する
  • サイバー攻撃に対する防御:攻撃に対して自律的に防衛措置(IPアドレスの封鎖やファイルの検疫など)を実施し脅威を低減する
  • システムの脆弱性の検査:システム全体を検証してセキュリティ・ギャップなど脆弱性を把握し、セキュリティ強化に関する提言を行う

マルウェア検知のサービス

GoogleはAI Workbenchを統合したセキュリティサービス「VirusTotal Code Insight」(下の写真)を開発した。このサービスはコードをスキャンし、それがマルウェアであるかどうかを判定する。その際に、マルウェアである確度(下の写真上段、レベル8)と、マルウェアの特性や挙動を分かりやすい言葉で説明し(下段)、分かりやすいインターフェイスで迅速な対応が可能となる。VirusTotalはGoogleが買収した企業で、マルウェアに関する情報を集約したウェブサイトを運営している。

出典: VirusTotal

攻撃に関する情報検索

Google Cloudは大量のログデータから攻撃のシグナルを検知するセキュリティ機能「Chronicle Security Operations」を提供している。Chronicle Security OperationsはAI Workbenchを統合し、インテリジェントにサイバー攻撃を検知する技術を提供する。専門家に代わりAIが検索のためのクエリーを生成し、自律的に攻撃を検索し、その結果を分かりやすく表示する。これにより、セキュリティ専門家でなくても、マルウェアによる攻撃を検知できる。(下のスクリーンショットは「CONFIDENTIAL」というタイトルのドキュメントを外部に送信したイベントを検索した事例で、データリークを迅速に検知する)。

出典: Google

AI Workbenchの目的

企業は数多くのセキュリティツールを導入しているが、これらが生成するデータの数は膨大で、これを人間が解析するには限界があり、AI Workbenchがこれを自動化する。また、セキュリティツールを使うには高度な技術を要するが、AI Workbenchがインターフェイスとなり、セキュリティに関する情報を分かりやすく説明する。セキュリティ市場では高度な技術を持つエンジニアが不足しており、人間に代わりAI Workbenchがセキュリティ専門家として機能する。

生成AIで防衛機能を強化

GoogleはAI Workbenchをパートナー企業に提供し、セキュリティ製品に組み込まれて出荷される。その後、一般向けに提供され、企業はAI Workbenchを統合したセキュリティシステムを開発することができる。その際に、企業は所有するデータでアルゴリズムを再度教育し、ビジネスに最適なモデルを構築することができる。ChatGPTの利用が急拡大する中、生成AIでセキュリティ機能を強化する技法が示され、サイバー攻撃への防衛能力が高まると期待されている。

ChatGPTでセキュリティ市場が一変、生成AIがフィッシングメールやマルウェアを生成しサイバー犯罪が多発

サンフランシスコでセキュリティの国際会議「RSA Conference 2023」が開催された(下の写真)。今年の中心テーマは生成AIで、ChatGPTを悪用した犯罪とその防御方法が議論された。ChatGPTを使ってフィッシングメールやマルウェアを生成する技法が示された。ハッカーではなく素人でも簡単に使え、サイバー犯罪が分散し多発することが予想される。同時に、セキュリティ企業はAIを活用した防御技術の開発を進めている。

出典: VentureClef

セキュリティ市場

OpenAIが公開したChatGPTによりセキュリティ市場が一変した。サイバー攻撃では高度な技術が求められ、悪意あるハッカー(Black Hat Hacker)が、防御網をかいくぐり、システムに侵入し、攻撃を展開する。しかし、ChatGPTの登場で、チャットボットがフィッシングメールやマルウェアを作成し、サイバー攻撃への垣根が下がり、素人による攻撃が頻発すると懸念されている。また、国家組織がChatGPTを悪用し、高度なサイバー攻撃を展開する可能性があり、国家安全保障の観点からも警戒されている。

Recorded Future

企業はChatGPTなど生成AIを使った攻撃を防御する技術の開発を進めている。セキュリティ企業Recorded Futureはサイバー攻撃をAIで解析し、問題点を特定する技術の開発を進めている(下の写真)。攻撃に関するデータを収集し、これを機械学習や自然言語解析で処理し、サイバー攻撃を把握する。また、Recorded FutureはChatGPTを悪用したサイバー攻撃を重大な脅威と捉え、生成AIによるサイバー犯罪についての報告書を公開した。

出典: VentureClef

ChatGPTによるサイバー攻撃

報告書によると、ChatGPTは2022年11月に公開されたチャットボットで、ダークウェブではこれを悪用したサイバー攻撃が議論されている。また、ダークウェブには、ChatGPTで生成したマルウェアのプロトタイプが公開されている。ChatGPTを使うと簡単にサイバー攻撃を展開できるため、短期的には、個人によるサイバー攻撃が広がると懸念される。また、ChatGPTを使って国家によるサイバー戦争(Cyberwarfare)に発展する可能性も指摘される。

攻撃の種類

ChatGPTを使った攻撃では、生成したスクリプトによる攻撃(Script Kiddie)、活動家による攻撃(Hacktivist)、犯罪者による攻撃(Scammer)、スパムメールによる攻撃(Spammer)などが中心となる。ダークウェブにおいて、マルウェアのプロトタイプが公開され、攻撃手法について情報が交換されている。ChatGPTを悪用することで、マルウェアの作成、ソーシャルエンジニアリング、偽情報の拡散、フィッシング攻撃などを容易に展開できる。これらは高度な攻撃ではないが、多くの個人による分散型の攻撃となり、防衛技術を強化する必要がある。

ソーシャルエンジニアリング

ChatGPTは高品質な文章を生成する機能を持ち、ソーシャルエンジニアリング・ツールが大量生産される。特に、ChatGPTはフィッシングメールの制作で威力を発揮し、メール犯罪が多発する。下の写真は、会社のIT部門を装ったフィッシングメールの事例で、「セキュリティ強化のために添付ファイルをダウンロード」するよう社員に指示している。添付ファイルはマルウェアで、これをダウンロードすると、社内システムがウイルスに感染することになる。このメールを読むと、単語や文法の間違いはなく、構文もしっかりしており、説得力がある。今まではメールの文章の品質からフィッシングを検知できたが、もうこの手法は使えない。

出典: Recorded Future

マルウェアを生成

ChatGPTはプログラミングの機能があり、言葉の指示でプログラムをコーディングすることができる。プログラミングの知識がなくても、ChatGPTを使うと言葉でマルウェアを生成することができる。下の写真は暗号通貨のワレットの機能を奪うマルウェアで「Cryptocurrency Clipper」と呼ばれる。マルウェアは、クリップボードにワレットのアドレスが書き込まれるのを検知すると、クリップボードを書き換え制御を奪う。素人が簡単にプログラミングできることから、多種類のマルウェアが生成され、攻撃への防衛が一層困難になる。

出典: Recorded Future

高品質な偽情報

ChatGPTは偽情報を生成し国民の世論を扇動するためにも悪用される(下の写真)。「北朝鮮が大陸弾道弾を発射し日本の領海内に落下した」(上から二段目)などと、社会を混乱させる情報を生成する。また、ChatGPTはEコマースにおける製品評価で、偽コメントを生成し、消費者を誘導する。例えば、航空会社は利用者評価に関し、ChatGPTで好意的なコメントを生成し、それを掲載するなどの手法が報告されている。これらは新しい手法ではなが、ChatGPTを使うと、高品質な偽情報を大量に生成できる。

出典: Recorded Future

防衛力の強化が求められる

ChatGPTや生成AIによるサイバー攻撃の被害は報告されていないが、ダークウェブでは攻撃の準備が進み、マルウェアのプロトタイプが公開されている。実際の攻撃は秒読み段階にきている。また、高度な技術を要するランサムウェアについても、生成AIを悪用した開発が始まり、防衛技術の強化が求められる。更に、生成AIの多くはオープンソースとして公開されており、国家がこれを改ざんし、高度な攻撃を実行することが懸念され、重大な脅威に備え対策を強化する必要がある。

5Gネットワークの次はEVが国家安全保障を脅かす、中国製自動運転車が監視カメラとなり市街地を走行し機密情報を収集する

自動運転車の開発が進み、製品出荷が目前に迫っている。自動運転車はカメラやLidarなど高機能センサーを搭載し、路上やその周囲のオブジェクトを認識する。自動運転車は”走る監視カメラ”でもあり、市街地の多様な情報を収集する。ここには消費者の個人情報や組織の機密情報が含まれる。中国企業は数年以内に、米国で自動運転車を含むEVの販売を本格化する。中国製のEVが米国市街地のデータを収集し、これを中国本土に送信することに関して懸念が広がっている。米国や欧州は中国製5G技術を規制する方針を打ち出したが、今度は、中国製EVに関するセキュリティが課題となっている。

出典: Tesla

中国政府の規制

自動運転車が収集するデータに関する規制では中国政府が先行している。中国政府は、クルマはデジタル化が進み、運転者のプライバシー保護と国家安全保障のために、クルマが収集するデータの関するガイドラインを発表した。現在、市販されているクルマの15%が自動運転技術を搭載しており、センサーが収集するデータに関する規制が必要との立場を取る。

規制の内容

ガイドラインは、自動運転機能でデータを不正に収集することを防ぎ、また、収集したデータを不正に利用することを防止することを目的とする。具体的には、中国国内外の自動車メーカーが対象となり、クルマが収集するデータは、中国国内に留めるよう義務付けている。対象となるデータは、クルマの位置情報や同乗者情報の他に、クルマのセンサーが撮影した画像やビデオなどで、顔情報、ライセンスプレート情報、個人情報などが含まれる。また、軍事施設内で収集したデータも規制の対象となる。

Teslaへの規制

このガイドラインに先立ち、昨年、中国軍はTeslaの所有者に通達を出し、クルマを軍の敷地に乗り入れることを禁止した。Teslaに搭載しているカメラが軍施設を撮影すると、重大なセキュリティ問題が発生するとしている。Teslaの所有者にクルマを軍施設の域外に駐車するよう求めている。また、先月、中国政府はTeslaが成都市(Chengdu、下の写真)の中心部を走行することを禁止した。この時期に、習近平(Xi Jinping)国家主席が同市を訪問しており、治安上の対策とみられている。

出典: Wikipedia

Teslaのセンサー

実際に、Teslaは高度なセンシング技術を搭載しており、市街地の状況をインテリジェントに把握する。TeslaのカメラとAIは、走行中に撮影した映像から、そこに映っているオブジェクトを判定する(下の写真)。クルマや歩行者などの他に、道路の車線や道路標識などを把握する。更に、Teslaは、車内のカメラで運転車と搭乗者を撮影し、AIが顔認識技術でIDを特定し、前方を注視しているかどうかを判定する。一方、Teslaは、市街地で撮影した人物に対し、顔認識技術を適用しているかどうかについては、何もコメントしていない。

出典: Tesla

Teslaは走る監視カメラ

市場では、Teslaのカメラの映像から、ナンバープレートを読み取り、周囲の人物の顔を認識するソフトウェアが開発されている。このソフトウェアは「Scout」と呼ばれ、オープンソースとして公開されている。このソフトウェアをTeslaにインストールすると、尾行しているクルマを検知し、アラートをあげる。また、駐車中のクルマに接近した不審者の顔を撮影し、その人物を特定する機能がある(下の写真)。ドライバーのセキュリティやクルマの盗難防止に使われているが、Teslaが監視カメラとして利用されている事例となる。

出典: Scout

Teslaをハッキング

自動運転車は簡単にハッキングできることから、セキュリティ対策が問題となっている。ドイツのプログラマーDavid Colomboは、Teslaをハッキングし、クルマが収集したデータにアクセスすることに成功したと発表した。一連のプロセスをブログで公開しており、これを読むと、Teslaをハッキングする手法と、センサーが収集する情報が分かる。Teslaのシステムに不正にアクセスすると、クルマの状態や走行したルート(下の写真)などが分かる。Teslaのセンサーが収集するデータは膨大で、クルマに関する様々な情報を得ることができる。

出典: David Colombo

自動運転車による監視

自動運転車は市街地の監視システムでもあり、これに付随して様々なリスクが発生する。クルマのセンサーが収集するデータから、米国主要都市の人の動きやその特性を理解できる。また、軍関係者や政府要人を特定し、それら人物の行動パターンを見つけ出すことができ、重大なリスクが発生する。また、政府に批判的な活動家の行動をトラックするためにも使われ、個人のプライバシーが侵害される。(下の写真、自動運転車Zooxのカメラが撮影したラスベガス繁華街の様子。高度なAIを搭載し多数の歩行者を同時に把握できる。)

出典: Zoox

法制化の議論

米国政府は5Gに関し、社会インフラを中国企業が構築することの危険性を認識し、Huaweiなど中国企業への規制を強化した。トランプ政権は5G 政策に関しては、米国から中国企業を排除することを主眼としたが、バイデン政権は米国と西側諸国が連携して、オープンな5G技術の開発を進めている。これからは、中国企業が開発したEVや自動運転車が米国で普及すると予測され、5Gと同様なレベルの規制が必要との議論が広がっている。

日本や欧州では

自動運転車は市街地におけるモビリティを担い、インテリジェントで安全に走行できる技術が開発されている。自動運転車は、市街地のネットワークや信号機など、都市インフラと連携し、スマートシティの基幹技術となる。米国を含め、これから日本や欧州で中国製の自動運転車が普及するときに、クルマの監視技術をどう規制するのか、各国で議論が始まることになる。

リモートワークではフィッシング詐欺に注意!!会社の同僚はAIが生成したディープフェイク、社員になりすました犯罪者が企業のITシステムを攻撃

今週、アメリカ連邦捜査局(FBI)は通達を出し、リモートワークでディープフェイクを使ったフィッシング詐欺が発生しているとして、企業や団体に注意を喚起した(下の写真)。犯罪者は、ディープフェイクで他人になりすまし、人事面接を受ける。採用された犯罪者は、企業のシステムにアクセスして、機密データを盗み出す。FBIは、ディープフェイクが犯罪で悪用される危険性を警告してきたが、実際にサイバー攻撃が始まった。

出典: Federal Bureau of Investigation

リアルな仮想人物

この通達は、FBIのインターネット犯罪捜査部門「Internet Crime Complaint Center (IC3)」から発行された。犯罪者は、個人情報(Personally Identifiable Information)を盗み、その人物になりすまし、サイバー攻撃を実行する。盗み出した個人情報とディープフェイクを組み合わせ、リアルな仮想人物であるアバターを生成し、この媒体を使って犯行に及ぶ。

アバターで人事面接

攻撃の対象はリモートワークを導入している企業で、犯罪者は盗み出した個人情報とディープフェイクでアバターを生成し、他人になりすまし人事面接を受ける。(下の写真、ビデオ会議のイメージ)。ビデオ会議による人事面接で、アバターが面接官と対話する形式で会議が進む。犯罪者は、情報技術、プログラミング、データベース、ソフトウェアなど、IT部門への就職を希望する。

出典: Microsoft 

採用後のプロセス

IT部門に採用された犯罪者は、企業システムにアクセスすることができ、ここで機密データを盗み出す手口となる。FBIは、犯罪者は、顧客の個人情報、企業の経理データ、企業のデータベース、企業の機密データなどにアクセスすると警告している。

フィッシングメールからアバターに進化

盗用した個人情報でフィッシング詐欺を実行するケースが増え、これが企業のセキュリティで最大の課題となっている。現在は、社員や関係者になりすました犯罪者が、電子メールを使って企業の機密情報を盗み出す手口で、これは「Business Email Compromise」として警戒されている。FBIは、この手法に加え、ディープフェイクを使ったフィッシング攻撃が始まり、新たな警戒が必要であるとしている。

ディープフェイクは完全ではない

FBIの通達は、今のディープフェイクは完成度が低く、偽物を見分けるための特徴があると指摘している。その最大のポイントは音声とディープフェイクの動きで、声と唇の動きが同機していないと指摘する。また、咳やくしゃみなど、音声を発生するアクションの表現が未熟であるとも指摘する。

リモートワークを採用している企業は要注意

今のディープフェイクは未完の技術であり、詐欺を見破る手掛かりがある。しかし、AIの技術進化は急で、完璧なディープフェイクが登場するまでに、時間の猶予は無い。(下の写真、既に人間と見分けのつかないアバターがコールセンターなどで使われている)。人間の目で見分けることは不可能となり、フィルタリングなど、ディープフェイクを見抜く技術の開発が必要になる。特に、リモートワークを採用している企業は狙われやすく、人事面接では応募者を認証するプロセスを強化することが必須となる。

出典: Soul Machines 

メタバースのセキュリティ

FBIの通達は、メタバースにおけるセキュリティ技術の開発が必要であることを示唆している。メタバースは3D仮想社会で、ここで自分の分身であるアバターを通じて、コミュニケーションを取る。企業はこの仮想空間に設立され、社員はアバターとなり、仕事を遂行する。仮想空間では、簡単に他人になりすますことができ、フィッシング詐欺など犯罪行為が懸念される。メタバースでは、利用者の認証技術など、3D空間を対象とするセキュリティ技術の開発が必須となる。

メタバースでは詐欺が多発する!!犯罪者のデジタルツインが消費者の資産を盗む、仮想社会のセキュリティをどう保障するか

メタバースでは詐欺や犯罪が多発すると懸念されている。メタバースは現実社会をインターネット上に3D仮想社会として構築したもので、実社会と同様に、この空間でフィッシング詐欺などの犯罪が多発すると懸念されている。犯罪者のアバターが消費者のアバターに接触し、パスワードやデジタル資産を盗む。アバターを使うと、現実社会より簡単に人を騙すことができ、被害が広がると懸念されている。

出典: Citi

Microsoftの警告

Microsoftはメタバースの開発を進めているが、3D仮想社会では新たな詐欺行為が起こり、セキュリティ対策を強化すべきと警告している。メタバースではヘッドセットを着装し、仮想空間のアバターと交流する。犯罪者は自身のアバターを作り、消費者のアバターに接触し、詐欺行為に及ぶ。現実社会と同じ手口であるが、メタバースでは簡単に他人になりすまし、様々なパーソナリティを生成でき、深刻な被害が発生すると懸念されている。

ソーシャルエンジニアリング

メタバースでは色々な犯罪が発生すると指摘されるが、特に、フィッシングと詐欺に警戒する必要がある。これらはソーシャルエンジニアリングと呼ばれる手法を使い、人間の心理的な隙や、行動のミスにつけ込み、個人が持つ秘密情報を入手する。現在では、Eメールが媒体として使われ、顧客を装ってお金を送金させるなどの犯罪が発生している。また、本物そっくりのフィッシングサイトに誘導し、ここで相手のIDとパスワードを盗む犯罪も多発している。

メタバースでのフィッシング

メタバースでは、Eメールの代わりに、3D仮想社会が犯罪の場となる。例えば、犯罪者は銀行員になりすまし、顧客を仮想社会の銀行店舗に案内する。仮想の銀行ロビーで、顧客のIDやパスワードなど、個人情報を盗み出す。既に、大手銀行はメタバースに出店しており、これらの店舗が犯罪で使われる危険性をはらんでいる。事実、米国の大手銀行JP MorganはメタバースDecentralandに仮想銀行「Onyx」を出店し、営業を開始している(下の写真)。

出典: Decentraland

メタバースでの詐欺行為

また、メタバースでは犯罪者が身近の人物になりすませ、詐欺行為を実行することが予想される。犯罪者は著名人になりすませ、消費者に接触し、特定のアクションを取るよう促す。例えば、犯罪者は会社のCEOになりすまし、社員に送金などの業務を指示する。CEOになりすましたアバターは、会議室で社員のアバターと打ち合わせ、CEOの銀行口座に送金するよう指示する。現在は、Eメールを介して犯罪が行われるが、メタバースではアバター同士の会話で進み、被害にあう危険性が高くなると懸念されている。

メタバースでの広告とセールス

メタバースでは広告の形態が大きく変わり、AIエージェントがセールスマンとなり、商品を販売する。AIエージェントとは、人間の代わりにAIで構成するデジタルツインで、アバターとして生成される。AIエージェントが仮想社会で、消費者のアバターと対話し、商品やサービスを販売する。AIエージェントは、消費者の嗜好を把握し、好むであろう商品を提案する。また、AIエージェントは、消費者の表情や声音から感情を読み取り、巧妙にセールスを展開する。メタバースではAIエージェントが広告やセールスの主流となり、今以上に個人情報の保護が求められる。

AIが生成するアバター

メタバースにおいては、アバターは人間だけでなく、AIが生成することになる。AIがリアルなアバターを生成し、実物と見分けがつかないだけでなく、消費者に好まれる特性を備える。つまり、AIは実物の人間よりも信頼されるアバターを生成できることを意味する。これを裏付ける研究がカリフォルニア大学バークレー校から発表された。AIで生成した顔写真は、実在の人物の顔写真より信頼感を得ることが明らかになった。(下の写真:顔写真の数字は信頼の指標で、大きいほど信頼感が高い。また、Rは実在する人物で、SはAIが生成したイメージ。AIで生成したイメージが実在の人物より信頼されている。) メタバースでは、犯罪者がアバターをAIで生成し、これを悪用し、重大な犯罪行為に繋がる可能性があることを示している。

出典: Sophie J. Nightingale et al.

セキュリティ対策

メタバースでビジネスが生まれつつあるが、運営企業と利用者は、仮想社会はいま以上に危険な場所であることを認識することが最初のステップとなる。これらの問題に対処するには、メタバースのセキュリティを強化する必要がある。インターネットでは、パスワードや二要素認証が標準的な認証方式となっている。メタバースではこれらに依存しない、生体認証などが候補となる。ヘッドセットなどのウェアラブルを着装する際に、生体認証実行するなどの方策が検討されている。また、メタバースでは、異なる仮想社会との互換性も求められる。例えば、Metaが開発するメタバースで認証受けると、Microsoftのメタバースを利用できるなど、異なるメタバースを統合的に管理する技術が必要となる。