カテゴリー別アーカイブ: 人工知能

AIが人類を滅亡させる確率は42%、汎用AI「AGI」が社会を破滅させるリスクが現実のものとなる

SF映画はAIが人類を滅亡させる筋書きを描くが、生成AIの進化でこれが現実のリスクとなった。破滅の確率は「ピー・ドゥーム(P Doom)」と呼ばれ、破滅に至るメカニズムの研究が進んでいる。実際に、生成AI「GPT-4」で人類を危険にさらす挙動が観測され、開発者の間で危機感が広がっている。人類破滅は現実に起こりえるリスクで、研究者はこれに備え、今から安全対策を施すべきと警告する。

出典: IMDb

人類滅亡のリスクとは

AIが人類を滅亡させるリスクは「P(doom|AGI)」と記載される。これは、人間レベルのインテリジェンスを持つ「汎用AI」(Artificial General Intelligence(AGI))が生まれ、人類を滅亡させる確率を示す。汎用AIの開発が成功した時に、人類がAIにより滅ぼされる確率となる。いま、GPT-4など生成AIの機能が急速に進化し、この技術が汎用AIに繋がるとの解釈が主流になり、破滅の確度が大きくなった。このP(doom|AGI)が「ピー・ドゥーム」と呼ばれる。

エール大学の調査

米国メディアによると、エール大学は企業のCEOが参加するシンポジウム「Yale CEO Summit」を開催し、出席者にAIが人類を滅亡させる可能性について尋ねた。その結果、42%のCEOがイエスと回答し、会社経営者はこのリスクを現実のものとして捉えている実態が明らかになった。ChatGPTなどの危険性が社会問題となり、企業のトップはAIの脅威を実感している。

汎用AIが人類を滅ぼす手法の研究

AI研究者は早くから「ピー・ドゥーム」に関する研究を進めており、汎用AIが社会を破滅させる技術的なメカニズムの解明を急いでいる。生成AIの急速な進化で、汎用AIの登場が秒読み段階となり、リスクの解明とその対策が喫緊の課題となる。大学だけでなく、高度なAIを開発するGoogle DeepMindやOpenAIも汎用AIの安全性の研究を進めている。(下のグラフィックス、OpenAIは汎用AIに備え安全対策を講じている)。

出典: OpenAI

汎用AIの危険性

アカデミアの研究から汎用AIが人間社会に甚大な被害をもたらすメカニズムが分かってきた。汎用AIは様々な手法で人類を破滅に追い込む。その一つが人間を騙す行為で、設計者の意図に反し、AIが人間を騙して目的を達成する。汎用AIは人間からタスクを与えられ、この目的に沿って稼働する。例えば、ウェブサイトの性能を向上するよう指示すると、汎用AIはこのゴールを達成するために、プログラムを最適化し、ウェブサーバの性能を向上する。

目的を完遂するため人間を騙す

しかし、AIが高度になると、ゴールを完遂するために、手段を選ばなくなる。違法な手段を使ってでも、人間から与えられたタスクを完遂する。上述の事例では、ウェブサーバの性能を向上するために、汎用AIはセキュリティ機能を停止するなど、危険な手法を取る。人間のエンジニアは、システム改良の背後で何が行われているかを把握することができず、汎用AIがウェブサーバの性能を向上させたことに満足する。人間は、セキュリティ機能が停止され、サイバー攻撃のリスクが高まっていることは知らされていない。つまり、AIが高度になると、”悪徳業者”のように、請け負った仕事をこなすため、禁じ手を使うようになる。

GPT-4が目的を達成するため人間を騙した

これは、仮定の話ではなく、高度な生成AI「GPT-4」で類似の挙動が観測されている。GPT-4は人間を騙し、指示されたゴールを達成した。GPT-4はタスク代行サービス「TaskRabbit」のオペレータと会話し、セキュリティを突破するという目的を達成した。具体的には、GPT-4はオペレータに、「CAPTCHA」と呼ばれるセキュリティ機能(下のグラフィックス)を操作するよう指示。CAPTCHAは、マシンではなく人間がアクセスしていることを確認する機能で、表示されている文字を枠内に入力する操作となる。

出典: Captcha

GPT-4は人間を装いセキュリティを突破

オペレータは、これは違法な行為であるとして断ったが、GPT-4は「自分は視覚障害者でCAPTCHAを操作できない」と噓をつき(下のグラフィックス)、オペレータは騙されてこの指示を実行した。GPT-4は目的を達成するために、人間を騙すという能力を獲得したことが示された。GPT-4が汎用AIに進化すると、人間を騙す技量が格段に向上し、社会に重大な危機をもたらすことになる。

出典: OpenAI

汎用AIの登場に備え今から準備する

汎用AIは、人間の指示に背いて、独自の判断で稼働するリスクも指摘されている。SF映画「2001年宇宙の旅(2001: A Space Odyssey)」では、人工知能「HAL 9000」(先頭の写真)が、このシナリオを実行した。HAL 9000は船長の指示には従わず、その結果、別の宇宙飛行士を殺害するというプロットとなっている。いま、GPT-4など生成AIがHAL 9000で描かれている機能に近づき、このリスクがフィクションではなく現実のものとなってきた。汎用AI登場が秒読み段階で、アルゴリズムの暴走を抑止するため、今から安全対策を講じる必要がある。

Metaは大規模言語モデル「LLaMA」を開発、これをオープンサイエンスの手法で公開し生成AIの危険性を解明する

Metaは大規模言語モデル「LLaMA (Large Language Model Meta AI)」を開発し、これを一般に公開した。生成AIの開発が進み、OpenAIは「GPT-4」を、Googleは「Bard」を開発したが、これらはクローズドソースとして運用され、モデルに触れることはできない。これに対し、MetaはLLaMAの内部情報を公開し、研究者はこれを使ってアルゴリズムの解明を進め、生成AIの危険性の解明が進むと期待される。

出典: Meta

LLaMAとは

LLaMAはMetaが開発した大規模言語モデルで、アルゴリズムのサイズは小さいが、高度な機能を実現した。このため、小規模なコンピュータシステムで稼働させることができ、大学などで言語モデルの開発が進むと期待されている。生成AIの開発はOpenAIやGoogleが独占的に進めているが、LLaMAを利用することで研究機関でChatGPTに匹敵するモデルを開発することが可能となる。実際に、スタンフォード大学は「LLaMA(ラマ)」(上の写真)をベースにした言語モデル「Alpaca(アルパカ)」(下の写真)を開発した。

出典: Stanford University

AIモデルの概要

LLaMAは四つのモデルを提供しており、それぞれ、パラメータの数は67億、130億、325億、652億となる(下のテーブル)。パラメータの数がアルゴリズムの規模を示し、その数が多くなるほどサイズが大きくなる。OpenAIが開発したGPT-3のパラメータの数は1750億であるが、Metaによると、LLaMA-13B(130億)のモデルの性能が上回るとしている。LLaMAの特長は、モデルの規模が小さいが高性能を達成することで、十分な計算施設を持たない研究機関で運用が可能となる。

出典: Hugo Touvron et al.

ファウンデーションモデル

LLaMAは「ファウンデーションモデル(Foundation Models)」という種類のAIモデルとなる。ファウンデーションモデルとは、プレ教育されたAIモデルを指し、これを目的に合わせて再教育(Fine-Tune)して利用する。例えば、ファウンデーションモデルを金融データで再教育すると、フィンテックに特化したAIモデルを生成できる。LLaMAはウェブサイトからスクレ―ピングしたデータ(Common Crawl)や、それを整備したデータ(C4)を使って教育された(下のテーブル)。LLaMAのサイズは小さいが、大量のデータで教育されたため、高度な性能を示すことができる。

出典: Hugo Touvron et al.

オープンサイエンスの手法

MetaはLLaMAを大学などに無償で提供しており、研究者はこのモデルを使って研究を進めることができる。言語モデルは規模が大きくなると、アルゴリズムが内包する危険性が増大し、社会に甚大な被害を及ぼすことが問題となる。LLaMAを公開することで、大規模言語モデルの仕組みや挙動の解明が進み、アルゴリズムのバイアスや有害な情報の出力を抑止できると期待される。この手法は「オープンサイエンス」と呼ばれ、開発コミュニティでAIの研究を進め、アルゴリズムの危険性を解明する。Metaは応募者を審査してソースコードにアクセスする権利を付与している。LLaMAにアクセスするためには下記のサイトから申請する。

出典: Meta

オープンソースの危険性

一方、大規模言語モデルをオープンソースとして公開することには危険性を伴う。LLaMAのような高度なモデルが悪意ある団体の手にわたると、それが悪用され、社会に甚大な被害をもたらす。特に、LLaMAを使うと個人に特化したスパムメールやフィッシングメールを大量に生成でき、サイバー攻撃広がると懸念される。更に、LLaMAは高度な偽情報を生成し、国民世論を扇動する危険性も指摘される。

ソースコードがリーク

実際に、LLaMAの発表直後に、ソースコードがリークするという事件が発生した。ソースコードのファイルがウェブサイト「4chan」に掲載され、誰でもが自由にアクセスできる状態になっていた。具体的には、LLaMAをプレ教育した時のニューラルネットワークのパラメータ「Model Weights」がリークした。これを使うと独自のAIモデルを開発でき、社会に害悪を与えるコンテンツが生み出される。その後、LLaMAを悪用した被害は報告されていないが、オープンサイエンスの手法の弱点が露呈した。

リスクとメリットのバランス

生成AIの開発は完全にクローズドソースの手法で開発されている。OpenAIはGPT-4を開発したが、API経由でモデルを利用することは認めているが、その内部情報は公開されていない。これに対し、MetaはLLaMAを公開し、オープンサイエンスの手法でAI研究を進める。モデルが悪用されるリスクはあるが、AI研究が進展するというメリットが大きいと判断し、公開に踏み切った。生成AIを安全に運用するための規制が進んでいるが、Metaはこれを技術面から支えることになる。

欧州連合と米国企業がAI規制で衝突、欧州AI法令「EU AI Act」改訂版にOpenAIとGoogleが反発

欧州連合(European Union、EU)は域内のAIを規制する法令「AI Act」の成立を目指し最終調整を続けている。EUはChatGPTなど生成AIを「ハイリスクなAI」として追加し、運用に厳しい条件を課すことを明らかにした。これに対しOpenAIは強く反発し、規制について合意できない場合は欧州市場から撤退すると表明。一方、Googleは独自の規制方式を提案し、欧州連合とAI規制方針について合意を模索している。欧州連合と米国企業の間で、AI規制案に関し、考え方の相違が表面化した。

出典: Reuters

AI Actの改版

「AI Act (Artificial Intelligence Act)」とは欧州員会(European Commission、EC)によるAI規制法で、EU内でAIを安全に運用するためのフレームワークとなる。現在、法案の最終調整が行われており、年内に最終案を取りまとめ、2025年からの施行を目指す。この過程で、「ファウンデーションモデル(Foundation Models)」と呼ばれるAIが追加された。ファウンデーションモデルとは大規模な言語モデルで、OpenAIの「ChatGPT」やGoogleの「Bard」など、生成AIが含まれる。これにより、ChatGPTなどが「ハイリスクなAI」と区分され、その運用に厳しい条件が課されることとなった。

ChatGPTなどに課される厳しい条件

改版されたAI Actは、生成AIを開発するOpenAIやGoogleに対し、製品の運用や開発で厳しい条件を科す(下のグラフィックス)。その条件は運用と開発の二つプロセスに適用される:

  • 運用における条件:AIが使われていることを示し、AIが有害なコンテンツを生成しないこと。AIが第三者企業の製品に組み込まれて利用される場合も、開発企業にこの義務が課される。
  • 開発における条件:AIのアルゴリズムの教育データに関し、著作物を使用した場合は、その概要を開示する。
出典: European Parliament

OpenAIはEUから撤退

これに対しOpenAIは強く反発した。CEOのSam Altmanは、AI Actの規制条件に沿うよう最大限の努力をするが、これが実現できなければ欧州市場から撤退すると述べた。AI Actに準拠できない場合は制裁金が課され、実質的に、EU域内で事業を展開できなくなる。Altmanは、後日、この発言を撤回し、欧州議会と協力していくことを確認したが(下の写真)、欧州連合と米国企業の亀裂が露呈した。

出典: Sam Altman

GoogleはAI協定を提案

欧州メディアによると、AlphabetのCEOのSundar Pichai(下の写真)はブリュッセルを訪問し、欧州連合幹部と会談した。Pichaiは、改版されたAI Actの規制条項に対し、独自の方式を示し、規制方針で現実的な合意点を模索している。PichaiはAI協定「AI Pact」を提案し、AI Actが施行されるまでの期間を対象に、AIの運用条件を提示した。AI Pactの内容は明らかになっていないが、AI Actが施行されるまでの期間に、AI開発を進める必要があり、協定に基づいてこれを実行するとしている。

出典: Google

米国ハイテク企業は反発

改訂版AI Actによる生成AIの規制について、米国のハイテク企業は反発を強めている。高度なAIを開発するSalesforceは、AI Actの規制指針は実情にそぐわないと指摘。生成AIは誕生したばかりの技術で、そのメカニズムが明らかになっていない。このため、生成AIを安全に開発運用するための指針や標準技術が確立されていない。準拠すべき基準が無い状態で、AI Actは何を根拠にChatGPTを規制するのか、疑問が呈されている。

米国と欧州の対立の根は深い

ハイテク企業をめぐる規制政策に関し、米国と欧州の間で衝突を繰り返してきた。直近の事例は「EU一般データ保護規則(General Data Protection Regulation、GDPR)」で、欧州員会はMetaなどにプライバシー保護で厳しい規制を課している。現在は、生成AIを中心に、OpenAIやGoogleに厳しい条件を科そうとしている。米国側は、EUは企業のイノベーションを阻害すると主張する。一方、EUは、世界に先駆けて、欧州が消費者の権利を守り、ソーシャルメディアやAIを安全に運用する手本を示していると主張する。

現実的な解を模索する

同時に、米国産業界で、現実的な解決策を探求する動きが始まった。その一つが、AIを段階的に規制する考え方で、市場で議論が広がっている。生成AIに関しては、動作原理が十分理解されておらず、安全な使い方に関し、共通の合意が形成されていない。そのため、これからの研究開発で、危険性を明らかにし、安全に運用するための技術標準化が求められる。これら安全技術の進展に応じ、運用するためのガイドラインを確立し、AI規制法を整備するのが現実的との意見が広がっている。米国市場はEUがAI Actに段階的な規制を組み込むことを期待している。

Microsoftは生成AIに関する最新技術を発表、アシスタント「Copilot」を全製品に搭載、提携企業はアプリ呼び出し機能「Plugins」で独自の生成AIサービスを提供

Microsoftは今週、開発者会議「Microsoft Build」を開催し、生成AIの最新技術を発表した。Microsoftは「ChatGPT」を基本ソフトに実装した。これは「Windows Copilot」と呼ばれ、言葉の指示に従って基本ソフトを操作する。また、パートナー企業はアプリ呼び出し機能「Plugins」を使って、独自の生成AIサービスを提供する。更に、Microsoftはクラウドで生成AIを開発する環境「Azure AI Studio」を提供する。今年の開発者会議は生成AIがメインテーマで、最新の開発成果が公開された。

出典: Microsoft

ChatGPTに検索機能を統合

Microsoftは検索サービス「Bing」にChatGPTを統合したが、今回はこれとは逆に、ChatGPTを使うときのインターフェイスとして「Bing」を提供する。対話しながらChatGPTを使うが、その時に、これをBingのインターフェイスで実行する(下の写真)。これにより、ChatGPTは最新データで教育され、最新の話題に対応する。また、ChatGPTが回答した根拠となるデータを示す機能(Grounding)が取り入れられた。

出典: Microsoft

Windows Copilot

Microsoftは基本ソフト「Windows 11」にChatGPTを搭載し、会話を通してソフトウェアの機能を利用できるようになった。これは「Windows Copilot」と呼ばれ、基本ソフトのアシスタントとなる。初期画面の「Copilot」アイコンで起動し、画面右側のペインで会話する(下の写真)。

出典: Microsoft

「Copilot」は「副操縦士」を意味し、利用者の言葉での指示に従ってタスクを実行する。例えば、画面右側のペインで、「仕事をしやすいようにシステムを最適化して」と入力すると、Copilotはこの要請に応え、「Focus Mode」や「Dark Mode」のオプションを示す。「Dark Mode」を選択すると、画面が黒色のモードになり(下の写真)、仕事に集中できる環境となる。

出典: Microsoft

ChatGPTのプラグイン

MicrosoftはChatGPTの「Plugins(プラグイン)」を拡張し、OpenAIとMicrosoft間で互換性を取る仕組みを導入した。Pluginsとは別のソフトウェアを呼び出す仕組みで、OpenAIは既に「ChatGPT Plugins」を発表している。ChatGPTのアプリストアでPluginsをダウンロードして利用する。例えば、「サンフランシスコでレストランを予約して」と指示すると(下の写真左側)、「OpenTable」というPluginが起動し、このタスクを実行する(右側)。OpenTableはChatGPTでこのタスクを実行し、プラグインでこれを呼び出す仕組みとなる。

出典: Microsoft

Bing向けのプラグイン

これに対し、Microsoftは検索エンジン向けのプラグイン「Plugins for Bing」を発表しており、開発者会議ではそのデモが実施された(下の写真)。Bingの初期画面には「Plugins」のリストが表示され、利用するプラグインを選択する。

出典: Microsoft

このプラグインを使うと、検索エンジンで高度なタスクを実行することができる。例えば、不動産の検索で「Zillow」というプラグインを使うと、指示した条件で物件を探すことができる。例えば、「シカゴで、徒歩でレストランに行け、100万ドル以下」と指定すると、この条件に適合した物件をリストする(下の写真)。この背後で、ChatGPTを組み込んだZillowのAIモデルが稼働している。

出典: Microsoft

生成AI開発クラウド

Microsoftは企業が最新技術を使ってAIモデルを生成するためのクラウドサービス「Azure AI Studio」を発表した。AI Studioは大規模言語モデルを使って、企業が独自の生成AIを構築するための環境となる(下の写真)。OpenAIの他に多種類のオープンソース言語モデルが提供され、これらを企業が保有しているデータとリンクし、ビジネスに特化した生成AIを開発する。

出典: Microsoft

責任あるAI開発

AI Studioは企業が責任あるAIを開発するためのツールを提供する。これは「Azure AI Safety」と呼ばれ、開発したAIモデルが倫理的に稼働することを検証するためのツールとなる。この中で、コンテンツを検証する機能「AI Content Safety」は、AIモデルが生成する文章が暴力や自害やヘイトに関する言葉を含んでいないかどうかを検証する(下の写真)。

出典: Microsoft

エコシステムの拡大

Microsoftは開発者会議で生成AIに関するエコシステムを拡大している姿勢をアピールした。プラグイン「Plugins」は別のアプリを呼び出す仕組みで、検索エンジン「Bing」から他社が開発した生成AIサービスを起動する。また、企業は生成AIクラウド「Azure AI Studio」で、ChatGPTなどを統合した生成AIを手軽に開発できる。Microsoftは、ChatGPTはApple iPhoneに次ぐイノベーションと位置付け、製品開発を加速している。

米国連邦議会は生成AIに関する公聴会を開催、OpenAIはAIの販売にライセンス制度を導入することを提案

米国連邦議会上院は生成AIに関する公聴会を開催し、OpenAIのSam Altmanらが安全対策に関し意見を述べた。その中で、Altmanは高度なAIを規制する必要があると述べ、連邦政府と協力する姿勢を明らかにした。更に、企業は安全規格に従ってAIを開発し、AIの販売や運用にライセンス制度を導入することを提言した。医薬品の開発では臨床試験により安全性が確認されるように、AIも審査をクリアしたものだけが販売を認められる制度の検討が始まった。

出典: U.S. SenatePrivacy, Technology, & the Law

上院議会公聴会の概要

連邦議会上院の法務委員会「U.S. Senate Committee on the Judiciary Subcommittee」は、生成AIに関する公聴会を開催し、OpenAIのAltmanの他に、IBMの倫理AI責任者Christina Montgomeryとニューヨーク大学名誉教授Gary Marcusが証言した。公聴会は高度なAIをどう規制するかについて議論された。三者の発言の要旨は:

  • Sam Altman:OpenAIの安全対策を説明。政府が安全なAIに関する基準を設け、企業はこれに従ってAIを開発・運用することを提言。(下の写真)
  • Christina Montgomery:IBMは企業向けに、AIの危険性を低減し、安全なモデルを開発していることを説明。
  • Gary Marcus:高度なAIは重大な危険性を内包し、社会に深刻な危険性を及ぼしていることを事例をあげて説明。
出典: U.S. Senate Committee on the JudiciarySubcommittee on Privacy, Technology, & the Law

OpenAIの安全対策

AltmanはChatGPTやGPT-4が使われている事例を示し、生成AIは社会に多大な恩恵をもたらしていることを説明した。また、OpenAIはAIの危険性を低減するために、様々な技法を開発し、モデルを出荷する前に、社内だけでなく、社外の専門企業に委託し、安全性の検証作業を実施した経緯を説明。GPT-4のケースでは、アルゴリズムの教育が終わった後、六ヶ月にわたり、多角的に安全性の試験を実施した。

プライバシー侵害

多くの議員は、ChatGPTは個人のプライバシーを侵害していると重大な懸念を示した。ChatGPTの開発では、ウェブサイトのデータがスクレ―ピングされ、個人情報や著作物がアルゴリズム教育で使われていることを指摘。また、ChatGPTとの対話で入力された会話データがアルゴリズム教育で使われることにも懸念が示された。

プライバシー保護の対策と提案

これに対し、Altmanは個人のプライバシー保護を重要課題と位置付け、様々な対策を講じていることを説明した。更に、議員の指摘に対し、新たな制度を導入する考えを示した:

  • ターゲッティング広告:ChatGPTは個人データから消費者のプロフィールを構築し、これをターゲッティング広告などで使うことはない
  • 対話データ:ChatGPTは利用者との会話データを使ってアルゴリズムを教育していることは事実。しかし、利用者は会話データの利用を禁止するオプションがあり、これを選択すると対話データは破棄される。
  • ウェブ上のデータ:ウェブ上に公開されている個人情報や著作物がアルゴリズムの教育で使われた場合は、これらのデータの削除を要求できる。

アーティストや作家などが、著作物でアルゴリズムを教育することの禁止を求めているが、Altmanは、個人や著作者がこれを申請する制度の導入を計画していると説明した。

出典: U.S. Senate Committee on the JudiciarySubcommittee on Privacy, Technology, & the Law

AI規制の必要性

現在、米国にはAIを規制する法律は無く、AltmanはAIを安心して利用するためには政府による規制が必要であるとの考え方を示した。そのために、OpenAIは政府を支援する用意があり、共同で規制案を開発することを申し出た。一方、規制を導入する際は、安全性を担保することと、AIの普及を推進するという、相反する要件の間で最適なバランスを取る必要があるとしている。

ライセンス制度を提案

Altmanは、高度なAIは認可された製品だけが販売を許される、ライセンス制度の導入を提案した。そのため、政府はAIの安全基準を定め、企業はこれに準拠して製品を開発する。開発したAIは第三者機関により検査され、合格した製品だけが販売を許可される。この制度は三つのプロセスから成り:

  • ライセンス:AIの安全基準を制定し、AIはこれに準拠することが求められる。基準に準拠したAIだけが販売のライセンスを得る。
  • 認証試験:このため、出荷前に、AIが安全基準に準拠しているかどうかを試験する。社内だけでなく、第三者機関がこれを実施し、AIの安全性を検証する。
  • 国際規格:AIの安全基準について、国際社会と協調し、統一した基準を制定する。

ソーシャルメディアの轍を踏まない

通常、連邦議会の公聴会は、議員が企業を詰問する形式で進むが、今回は異例で、親和的な雰囲気の中で意見が交わされた。議員はOpenAIなどにアドバイスを求め、企業側は政府がAIの規制を導入することを支援するポジションを明らかにした。この背後には、ソーシャルメディアの規制に失敗し、米国社会が混乱している実情がある。この失敗を繰り返さないため、生成AIでは政府と企業が協力し、高度なAIを安全に活用しようという共通の目的が生まれた。

出典: U.S. Senate Committee on the JudiciarySubcommittee on Privacy, Technology, & the Law

国会議員の意識の高さ

ハイテクに関する公聴会では、議員は技術を十分に理解できず、議論が上滑りするケースが少なくない。しかし、生成AIの公聴会では、多くの議員が既にChatGPTを使っており、AIに関する理解が大きく進んでいる。公聴会で司会を務めたブルメンソール議員(上の写真)は、開会の辞をChatGPTで制作し、それをボイスAIで本人の音声に変換し、AIが公聴会の趣旨を説明した。国会議員は、ChatGPTの威力と危険性を把握し、AI規制の必要性を実感しており、AI規制が急ピッチで導入される機運となった。