(前回記事はこちら

 ディープラーニング向けGPUインフラの特性や使いこなしのノウハウを明らかにする特集。今回は、CPUから専用チップまで、GPU以外のITインフラの可能性について、PFN チーフアーキテクトの奥田遼介氏と、さくらインターネット代表取締役社長の田中邦裕氏、同社で高火力コンピューティングを担当する須藤武文氏に聞いた。

(聞き手は浅川 直輝=日経コンピュータ



将来、ディープラーニング向けITインフラの姿はどのように変わると見込んでいますか。当面は、コストパフォーマンスを含めてGPUクラスターの優位は続きそうでしょうか。

写真●右から、PFN チーフアーキテクトの奥田遼介氏、さくらインターネット代表取締役社長の田中邦裕氏、さくらインターネットで高火力コンピューティングを担当する須藤武文氏
[画像のクリックで拡大表示]

PFNの奥田氏 うーん、難しい質問ですね。ディープラーニングには大きく2つのタスクがあります。1つは、学習データを入力してニューラルネットを鍛える「学習(learning)」。もう1つは、鍛えたニューラルネットに使って何かを分類、推測させる「推論(inference)」です。

 このうち学習に関しては、やはり今のようなGPUクラスターの進歩したものが必要だと思います。一定規模の台数も要りますし、Infinibandを使うかを含め、様々なスペックの検討が今後も求められそうです。

 一方で、推論のほうはやや事情が異なります。こちらはCPUなど、別のデバイスが有利になる道も残されていると思います。

 学習は、1つのニューラルネットワークを時間をかけて鍛えるものです。一方で推論は、何らかの機器やサービスに組み込んで使ってもらうことになるので、運用面では「低レイテンシーで」「効率よく」さばくことが重要になります。

 この目的のため、GPUが一番いいという時期もあれば、そうではない時期があるかもしれない。GPUに限らない形を考えていくことが必要なのかなと考えています。

さくらインターネットの田中氏 そうですね。実際、かつてのマルチコアCPUは「遅いコアを大量に並べた」というイメージでしたが、今では1個1個のコアも結構速くなっているので、一つの解になりそうです。

米グーグルは「TPU(Tensor Processing Unit)という専用デバイスを開発して自社クラウドに組み込み、「Google Translate」などの自社サービスに使っています。こうした専用ハードウエアの可能性はどうでしょうか。

 専用ハードウエアという解があるどうかについては、常に注視しています。特に、推論だけでなく学習を高速化できるかは、常に気になっているところです。

 加えて、クラウド型に組み込むTPUとは違う発想ですが、ネットワークのエッジ側にディープラーニングを導入する場合は、より小型で、電力当たりのパフォーマンスが高い専用デバイスが求められると考えています。

 クラウドとエッジ、という2つの方向性は、同時に、別々の問題として考えていかなければなりません。

 例えばエッジ側のデバイスとして、先頃発表された車載チップ「Xavier」(注:自動運転車への利用を想定して米エヌビディアが開発中の車載SoC。2017年第4四半期に出荷予定)は、20テラFLOPS(1秒当たり浮動小数点演算回数)を20Wで実現するとしています。恐らく、学習用ではない推論専用のユニットを入れることで、電力当たりパフォーマンスを高めていると考えています。

この先は会員の登録が必要です。有料会員(月額プラン)は申し込み初月無料!

日経 xTECHには有料記事(有料会員向けまたは定期購読者向け)、無料記事(登録会員向け)、フリー記事(誰でも閲覧可能)があります。有料記事でも、登録会員向け配信期間は登録会員への登録が必要な場合があります。有料会員と登録会員に関するFAQはこちら