「GAFA」と呼ばれる米国の大手IT企業が、人工知能(AI)の心臓部まで支配しようとしている。Google、Apple、Facebook、Amazon.comが、それぞれAI処理専用の半導体、いわゆるAIチップの開発に乗り出した。まずはクラウド側で使うサーバー機向けが中心だが、いずれは自動運転車やロボットといったエッジ側の製品にも進出しそうだ。既存の半導体メーカーや自動車部品メーカー、大手電機メーカーなど同様な狙いを抱く企業は数多い。製造業の将来にも大きく影響するAIチップを巡る大競争が始まった。

 各社が開発を進めるAIチップは大きく2つに分けられる。インターネットのクラウド側などで使うサーバー用と、エッジ側にある様々な組み込み機器向けである。前者はディープラーニング技術を使ったAIの学習や、学習済みAIによる推論を多数のユーザーに提供するといった、極めて高い演算能力が必要な処理を対象にする。後者では、リアルタイムの推論処理をより少ない消費電力で実行することが求められる。

サーバー向けで火蓋

 いずれの場合もAIチップが担当する処理は、AIの実体といえる巨大な関数に関わる処理であり、システム全体の制御などには通常のCPUが別途必要になる。このためAIチップは、サーバー機向けではCPUからの指示でAI処理を請け負うアクセラレータ、組み込み機器向けではCPUなどとともにAI処理専用回路を組み込んだSoC(System on a Chip)の形態をとる。

 両者のうち、市場がまず立ち上がったのがサーバー向けだ。NVIDIAが業界に先駆けて開拓してきた。ディープラーニングブームの火付け役になった、2012年の国際的な画像処理コンテスト「ILSVRC(ImageNet Large Scale Visual Recognition Challenge)」の優勝チームが、既に同社のGPUで学習の高速化を図っていた。その後も同社は深層学習フレームワークと呼ばれる開発環境への対応などで他社に大きく先行し、GPUへのAI専用回路の組み込みによって、さらに水をあけようとしている。

 NVIDIAを追う2番手といえるのがGoogleである。同社のデータセンターでは2015年にAI専用チップTPUが稼働を始めており、2018年には早くも第3世代品の開発を公表した(関連記事)。同社はTPUを使ったAIの学習を、有償のクラウドサービスとして広く一般にも提供している(同社の関連ページ)。クラウド経由で提供されるAI処理の高速化サービスには、Microsoftの「Project Brainwave」もある(同社の関連ページ関連記事)。米IntelのFPGAを利用した推論の高速化が可能だ(関連記事)。