専用ハードが競争力の源泉に

 Amazon.comやGoogleといったITサービス企業までAIチップを開発する理由は、ハードウエアの良し悪しがAIを使った事業の競争力に直結することだ。現在のAIを牽引するディープラーニング(深層学習)の技術は、いまだ黎明期にある。その高速化手法は発展途上であり、AIチップの設計次第で性能や消費電力を大きく改善し得る。他社を圧倒するチップが完成すれば、AIチップの業界標準さえ奪取できるかもしれない。

 専用チップによる高速化が有効なのは、既存のソフトウエアの実行と比べて、ディープラーニングの処理が独特なためである。ディープラーニング技術に基づくAIの実体は、パラメーターの数が数百万〜数億にも達する非常に複雑な関数といえる(関連記事)。その計算量は膨大だが、部分ごとに並行して実行できるため、並列処理が可能な専用ハードウエアで大幅な高速化を図れる。

数百万~数億のパラメーターを利用
2016年時点で米Googleの各種サービスが利用していたニューラルネットワークの概要を示した。MLP、LSTM、CNNはそれぞれニューラルネットワークの構造を表す。(出典:同社の論文(https://arxiv.org/abs/1704.04760)のデータを基に作成)
[画像のクリックで拡大表示]

 演算にそれほど高い精度が求められないことも、ディープラーニングの大きな特徴だ。多くのソフトウエアが32〜64ビットといった高い精度で表現した数字を使うのに対し、ディープラーニングでは8〜16ビット程度で計算すれば十分とされる。ビット数が少ないほど演算回路が小さくなるので、同じチップ面積により多くの回路を集積して性能を高めたり、チップ面積自体を小さくして消費電力やコストを下げたりすることが可能だ。

 これまでディープラーニングの処理にGPUが向くとされてきたのは、並列処理が得意だからである。現在AI向けのGPUで圧倒的なシェアを持つ米NVIDIAは、16ビットの浮動小数点演算回路を組み込むといった対応も進めてきた。最新GPU「Tesla V100」で同社はさらに踏み込んだ。低ビットの行列演算を高速に実行する、AI処理専用といえる回路も実装したのである。

 それでも同社のGPUはコンピューターグラフィックス(CG)や科学技術計算といった用途も想定しておりAI専用ではない。他社はそこに付け入る隙があると見る。専用チップを開発する企業は、AI向けに特化することでGPUと比べて消費電力当たりの性能やチップの製造コストを段違いに改善できると主張している注1)

注1)対するNVIDIAは、AIには物理演算など精度の高い演算を実行する能力も併用する場合があると考えて、今のところAI専用チップを開発する計画はないとする(関連記事)。