「AIスーパーコンピューターというと”スーパーハイコスト”を想像するかもしれないが、そんなことはない。1時間24ドル(2600円)から誰でも使えます」――。

 米グーグル(Google)が米国マウンテンビューで開催した開発者会議「Goolge I/O 2019」で2019年5月9日(米国時間)に登壇したDeveloper Advocate, Google Cloudの佐藤一憲氏は、同社の新サービスについてこう語った。

Developer Advocate, Google Cloudの佐藤一憲氏
[画像のクリックで拡大表示]

 グーグルは前日の8日、深層学習のトレーニング(訓練)向けの独自プロセッサ「TPU(Tensor Processing Units)」を集積した「TPU Pods」をネットワーク経由で貸し出すクラウドサービスのベータ版を提供し始めた。

 従来は数日~数週間かけていた巨大な深層学習モデルのトレーニングを、数分~数時間で完了できる。「もう数百万ドルをかけて自前のスパコンを構築する必要はない」(佐藤氏)というわけだ。

 これまでグーグルや関連会社の英ディープマインド(DeepMind)社員など限られた研究者にしか使えなかった「AIスパコン」を、個人が自宅のパソコンからインターネット経由で試せる時代がやってきた。企業にとっても、小売り、金融、エネルギー、創薬など様々な用途でAIの適用を加速させる可能性がある。

GPUよりコスト4割減

 TPU Podは1000個以上のTPUチップを集積し、チップ間を独自の2次元トロイダルメッシュネットワークで接続している。この高速ネットワークこそが、グーグルがTPU Podを「スパコン」と呼ぶ理由である。1つのモデルを複数のノードで高速にトレーニングする「分散学習」に適した構成と言える。

 今回グーグルがサービスを始めたのが、TPU v2チップを使った「Cloud TPU v2 Pods」と、最新のTPU v3チップを使った「Cloud TPU v3 Pods」だ。

v2 Podの利用料金は32コアの24ドル/時間から512コアの384ドルまで
[画像のクリックで拡大表示]

 TPU v2 Podは512コア(256チップ)のTPUを備え、演算性能は11.6ペタFLOPS(1秒当たりのbfloat16浮動小数点演算回数)。提供を始めるサービスでは32コア分を1時間24ドルで使える。

 同社のGPUクラウドサービスとの比較では、同じトレーニングタスクを27倍高速に実行でき、時間が短縮される分コストは4割低くなるという。

同じ学習タスクに対し、v2 PodのコストはNVIDIA V100より4割安くなる
[画像のクリックで拡大表示]

 最新のTPU v3 Podは2048TPUコア(512チップ)で100ペタFLOPS超の演算性能を実現する液冷マシンである。32コアを1時間32ドルで使える。

v3 Podは32コアが32ドル/時間。より大きなモデルは「要問い合わせ」
[画像のクリックで拡大表示]

深層学習の研究環境に変革か

 グーグルがこれまで深層学習の基礎研究で圧倒的な存在感を持ってきた背景の1つに、TPUを中心とする膨大な演算インフラを潤沢に使える研究環境があった。

この先は有料会員の登録が必要です。有料会員(月額プラン)は初月無料!

日経 xTECHには有料記事(有料会員向けまたは定期購読者向け)、無料記事(登録会員向け)、フリー記事(誰でも閲覧可能)があります。有料記事でも、登録会員向け配信期間は登録会員への登録が必要な場合があります。有料会員と登録会員に関するFAQはこちら