機械学習やディープラーニング(深層学習)の適用領域拡大に伴い、画像処理に優れた「GPU(Graphics Processing Unit)」に注目が集まっている。半導体メーカーのNVIDIAなどが開発するGPUを機械/深層学習などの汎用計算に応用する「GPGPU(General-purpose computing on GPU)」が広がってきたからだ。

 GPUは、本来並列処理に高度に特化したプロセッサーである。これを自動運転車や製造分野での工場の自動化、ゲノム解析をはじめとするバイオヘルスケア分野など、幅広い分野の機械/深層学習への活用が期待されている。

 GPUテクノロジーの進歩は日進月歩だ。2018年3月26日から29日に、NVIDIAは「GTC 2018」と呼ぶイベントを米国サンノゼ市で開催した。ここには過去最大の8500人の開発者や研究者、メディア関係者などが参加したという。

 同社はイベントで、今までの最速だったGPUサーバー「Tesla V100」の2倍の容量となる32GB HBM2メモリーを搭載した新モデルなどを発表した。

 このTesla V100 32GBの採用を世界でいち早く発表したのが、日本のPreferred Networks(PFN)だ。同社はオープンソースの深層学習フレームワーク「Chainer(チェイナー)」などの開発・提供で知られる。ファナックと資本提携を結び、トヨタ自動車から105億円の追加出資を受けるなど大手企業との連携を深めており、深層学習の分野では海外からも注目度が高い。

 PFNは、2017年9月にスーパーコンピュータ「MN-1」の基盤として、一つ前の世代となるGPUサーバーの「Tesla P100」を1024基も備えた、マルチノード型GPUプラットフォームを構築した。MN-1は産業領域のスーパーコンピュータのLINPACK(コンピュータの実用上の演算速度を比較するためのベンチマークテスト)で、世界では12位に、国内では1位に登録された。

 PFNはTesla V100 32G版を512基搭載したスーパーコンピュータ「MN-1b」を2018年7月に稼働させる予定を明らかにした。1024基のTesla P100を備えるMN-1と合わせると、1536基の大規模なGPUコンピューティング環境によるスーパーコンピュータとなる。

GPUのサービス化を急ぐクラウド事業者

 クラウドサービス事業者各社は、機械/深層学習の用途拡大に備え、GPUコンピューティング環境をクラウドサービスで提供することに力を入れ始めている。

 AWS(Amazon web Service)は、2017年10月に、Tesla V100を搭載した「Amazon EC2インスタンス P3」というクラウドサービスの提供を始めた。トヨタ自動車のAI研究所「Toyota Research Institute」(TRI)は、自動運転基盤の実証にAmazon EC2インスタンス P3を採用したことを公表している。

次ページ以降は日経 xTECH Active会員(無料)の方のみお読みいただけます。