AIチップ「MN-Core」に用いたダイと そのウエハー
[画像のクリックで拡大表示]

 プリファード・ネットワークス(PFN)は、深層学習(ディープラーニング)向けのAI(人工知能)チップ「MN-Core」とそれを実装したアクセラレーターボードを開発し、半導体関連の展示会「SEMICON Japan 2018」(2018年12月12~14日)、東京ビッグサイト)に参考出展した。2020年春ごろの実用化を想定する。

 同社の狙いは深層学習の研究開発における競争力の強化にある。

 日進月歩で進むこの分野で先頭を走り続けるには、ディープラーニングが要求する膨大な計算処理を短時間で済ませ、次々に新しい試みを実行できる環境が不可欠だ。そのために同社は他社製をしのぐ性能の半導体の開発を決意した。以前から同社は業界標準といえる米NVIDIAのGPUを利用しており、今後も使い続ける計画だが、それだけでは不十分だと判断したという。

性能はGoogle開発品の約1.5倍

 MN-Coreの構成は次の通り。深層学習向け行列演算器(MAU)1個とプロセッサーエレメント4個を1ブロック(Matrix Arithmetic Block:MAB)として、そのMABを512ブロック集積したダイを4個、ファンアウト型パッケージで1つにまとめたもの(図1)。ダイ1個は、台湾TSMCの12nm世代プロセスを採用しながら32.2mm×23.5mmと巨大。それを4個用いて作製したMN-Coreは、85mm角とさらに巨大である。

図1 4個のダイを1パッケージにまとめたAIチップ「MN-Core」
ダイの外形寸法は85mm×85mm。刻印されている「GRAPE」は、このチップの設計などを主導した神戸大学 教授の牧野淳一郎氏が手掛けてきた重力多体問題専用ICのシリーズ名である。
[画像のクリックで拡大表示]

 演算性能は倍精度(64ビット)の浮動小数点演算で32.8T(テラ)FLOPS(FLoating-point Operations Per Second)、単精度(32ビット)では131TFLOPS、半精度(16ビット)では524TFLOPS。2018年5月に米Googleが開発中であることを明らかにした同様な専用チップ「TPU version 3」が半精度で360TFLOPS、同年10月に中国Huawei Technologiesが発表した専用チップが、TSMC 7nm世代という最先端プロセスを使って半精度で256TFLOPSであることと比べても、MN-Coreの演算性能の高さが目立つ。

 1W当たりの演算性能も半精度で約1TFLOPS/Wと、GoogleやHuaweiと肩を並べる。ただ、演算性能自体が高いことで消費電力は500Wと小型電気ストーブ並みに大きい。この熱対策として、PFNはヒートシンクを独自開発し、アクセラレーターボードに実装した(図2)。ちなみに、GoogleはTPU version 3で液体冷却システムを採用する方針だ。

(a)MN-Coreと合計32GバイトのDRAMを搭載
[画像のクリックで拡大表示]
(b)ブロアファンと専用設計のヒートシンクを載せる
[画像のクリックで拡大表示]
図2 MN-Coreのアクセラレーターボード「MN-Core Board」

この先は有料会員の登録が必要です。「日経エレクトロニクス」定期購読者もログインしてお読みいただけます。今なら有料会員(月額プラン)が12月末まで無料!

日経 xTECHには有料記事(有料会員向けまたは定期購読者向け)、無料記事(登録会員向け)、フリー記事(誰でも閲覧可能)があります。有料記事でも、登録会員向け配信期間は登録会員への登録が必要な場合があります。有料会員と登録会員に関するFAQはこちら