AIの中心技術であるニューラルネットワークが巨大化している。高精度なAIを開発するためにニューラルネットワークの構造が複雑になり、それを教育するプロセスで大規模な計算量を必要とする。計算処理量は消費電力と比例し、排出される二酸化炭素量が急増している。このペースで進むと2025年までに温暖化ガスの10%をAI開発が占めるとの予測もある。AI開発は規模の競争になっているが、いかに省エネなニューラルネットワークを開発できるかが問われている。

出典: Google |
AI開発と消費エネルギー量
University of Massachusettsの研究チームは論文「Energy and Policy Considerations for Deep Learning in NLP」を公開し、AI開発と消費エネルギー量の関係を明らかにした。自然言語解析(Natural Language Processing)分野でニューラルネットワークが大きく進化しているが、その精度を上げるためには大規模な演算量を必要とする。これが大量の電力消費に結びつき、開発方針を見直す必要があると提言している。
二酸化炭素排出量
研究チームは自然言語解析モデルを教育する際に発生する二酸化炭素量を算定した。これによると「Transformer」というAIを教育すると192ポンド(87キログラム)の二酸化炭素が排出される(下のテーブル、二段目、CO2e)。これは自動車に換算すると400マイル(644キロメートル)走行したケースに匹敵する。

出典: Emma Strubell et al. |
Transformerとは
このTransformerとはGoogleが開発した言語モデルで翻訳などの自然言語処理で使われる。Transformerは他方式と比較して翻訳精度が極めて高いという特性を持っている。通常、言語モデルはRecurrent Neural Network(RNN)が使われるが、Googleは独自の方式でニューラルネットワークを開発し、言葉を理解する能力を格段に向上させた。実際、Transformerは翻訳サービス「Google Translate」で使われており、生活に身近な存在でもある。
Transformerを最適化すると
更に、このTransformerを最適化すると626,155ポンド(284トン)の二酸化炭素が排出され、これはクルマで地球を50周走ったケースに匹敵する(上のテーブル、六段目、NASと示された部分)。これをクラウド使用料金に換算すると最大で320万ドルとなり、今ではニューラルネットワークを一本開発するのに多額の費用が発生する。
ニューラルネットワークの最適化
Transformerを最適化するとはニューラルネットワークの構造を目的に合うように変更することを意味する。Transformerの基本モデルが完成すると、その精度を上げるため「Neural Architecture Search (NAS)」というプロセスを実行する。これがニューラルネットワークを最適化するプロセスで、ハイパーパラメータ最適化(Hyperparameter Optimization)とも呼ばれる。ハイパーパラメータとはニューラルネットワークの基本形式で、学習速度(Learning Rate)、隠れ層(Hidden Layer)の数、CNNカーネル(Convolution Kernel)の大きさなどから構成される。従来はハイパーパラメータ最適化のプロセスを研究者がマニュアルで実行してきたが、GoogleはこれをAIで実行する。AIがAIを生成することになり、この処理で大規模な演算量が発生し、これが地球温暖化の原因となっている。
ニューラルネットワークの巨大化
この研究とは別に、OpenAIはニューラルネットワークの規模が急速に巨大化していることを明らかにした。ニューラルネットワークの構造が複雑になり、それを教育するための計算量が幾何級数的に大きくなっていることを定量的に示した(下のグラフ)。ニューラルネットワークを教育するための計算量(PetaFlops-Day、1日に千兆回計算する量を1とする)で比較すると、1年間で10倍になっていることが分かる。最初のニューラルネットワーク「AlexNet」と最新のニューラルネットワーク「AlphaGO Zero」を比較するとその規模は30万倍になっている。

出典: OpenAI |
ムーアの法則を上回るペース
ムーアの法則はチップに搭載されるトランジスターの数が18か月ごとに倍増することを示している。一方、上述のケースではニューラルネットワークを教育するために必要な演算量は3.5か月ごとに倍増している。AIの規模が巨大化していることは感覚的に分かっていたが、ムーアの法則を上回る勢いで拡大していることが明らかになった。この原因はニューラルネットワーク自体が大きくなることに加え、それを最適化するプロセス(上述のNAS)で大規模な計算量が発生するためである。
精度から省エネへ
これがデータセンタの電力消費量を押し上げ、地球温暖化の原因となっている。プロセッサの進化も激しく、AI処理専用プロセッサ(Google TPUなど)の普及がこのトレンドを下支えしている。これからもニューラルネットワーク開発の規模は拡大を続け、環境に与えるインパクトは看過できなくなる。このため、ニューラルネットワーク開発では精度の追求だけでなく、如何に省エネに開発できるかが問われている。