米グーグル(Google)が開発したディープラーニング(深層学習)専用プロセッサの第3世代「TPU 3.0」は、ラック8台で構成するポッドでスーパーコンピュータ「京」(ラック864台)の10倍となる「100ペタFlops」を実現するモンスターチップだ。
グーグルは2018年5月8~10日にシリコンバレーで開催した開発者会議「Google I/O 2018」でTPU 3.0を発表。TPU 3.0の実物展示に加え、TPUシリーズを解説する技術セッションなどを実施した。
現時点でグーグルはTPU 3.0について、「ポッド当たりの性能が100ペタFlops」であり、「第2世代のCloud TPUに比べて8倍の性能」であることしか明らかにしていない。ただ、TPU 3.0の実物をCloud TPUと比較すると、もう少し詳しい内容をうかがい知れる。
ラックへの収納台数は2倍に
TPU 3.0はCloud TPUと同様、1台のボードにプロセッサを4個搭載。冷却方式として初めて「液冷」を採用した。ボード上に空冷用の巨大ヒートシンクを搭載していたCloud TPUに比べて、ボードの高さは半分以下だ。展示会場の説明員によれば、ラック1台に収納できるボード数はCloud TPUの2倍になるという。
ポッド当たりのラックの規模も2倍
第2世代のCloud TPUはボード当たりの演算回数が180テラFlopsで、64個のCloud TPUボードからなるポッドの性能が11.5ペタFlopsだった。Cloud TPUのポッドはサーバーラック4台に64個のCloud TPUボードを格納していた。
それに対してTPU 3.0のポッドは8台のラックで構成する。前述のようにTPU 3.0はCloud TPUに比べて2倍のボードを1ラックに収納できることから、TPU 3.0のポッドはCloud TPUの4倍、256個のボードを搭載することになる。
この先は有料会員の登録が必要です。今なら有料会員(月額プラン)が2020年1月末まで無料!
日経 xTECHには有料記事(有料会員向けまたは定期購読者向け)、無料記事(登録会員向け)、フリー記事(誰でも閲覧可能)があります。有料記事でも、登録会員向け配信期間は登録会員への登録が必要な場合があります。有料会員と登録会員に関するFAQはこちら