デンソーなどが開発した「DFP」のIPのライセンス供与などを手掛ける新会社エヌエスアイテクス(NSITEXE)の社長を務める新見幸秀氏
[画像のクリックで拡大表示]

 「我々がデザインしたシステムは、要求を受けてから極めて短い遅延時間で応答を返せる、リアルタイムAI向けだ。リアルタイムAIは今後ますます重要になる」(米Microsoft社 Distinguished EngineerのDoug Burger氏のブログ)。

 2017年8月下旬、高性能プロセッサー関連の国際会議「Hot Chips 2017」で、Microsoft社はディープニューラルネットワーク(DNN)を用いた推論処理を高速で実行できるクラウド環境「Project Brainwave」(開発コード名)を発表した。同社が設計したアクセラレーター回路を米Intel社の最上位FPGA「Stratix 10」に実装して利用する。狙いは、検索や動画認識、ユーザーとの対話などの各種サービスで、無数の要求を瞬時に処理して結果を戻せる人工知能(AI)の実現である。将来、クラウドサービス「Microsoft Azure」の一環として提供する計画だ。

 DNNの推論処理の加速を狙ったAIチップの提案が、雨後のたけのこのように続出している(図1)。いずれもリアルタイムと呼べるほど、素早く処理結果を返すことが目標だ。原動力は、DNNの活用が電子機器やサービスの付加価値を大幅に高めるとの期待である。AIチップに向くアーキテクチャーは定番がまだないため、各社各様の独自方式が目白押しだ。チップやIPを外販する企業からは業界標準の座を目指す意図がうかがえる。応用製品の市場拡大と並行して、AIチップの標準をめぐる争いも激化していきそうだ。

図1 GPUの牙城に挑む
DNN(ディープニューラルネットワーク)などを使った推論処理を高速に実行できる人工知能(AI)向け半導体の提案が相次いでいる。いずれも、深層学習技術の研究開発で多用されてきた米NVIDIA社のGPUをしのぐ電力当たりの性能を狙う。デンソーは米ThinCI社と共同でDFPと呼ぶプロセッサーを開発。演算器の利用効率をGPUよりも高めることができ、運転時の判断といった処理への応用を狙うという。米Microsoft社はFPGAを使ってデータセンターでの推論処理を高速化できることを実証。経済産業省は、2018年度予算にFPGAやDRPなどのAIへの応用を推進する事業を組み込んだ。このほか、DNN処理の専用回路や自動運転車などを想定したASICを提案する動きもある。
[画像のクリックで拡大表示]

この先は有料会員の登録が必要です。「日経エレクトロニクス」定期購読者もログインしてお読みいただけます。有料会員(月額プラン)は申し込み初月無料!

日経 xTECHには有料記事(有料会員向けまたは定期購読者向け)、無料記事(登録会員向け)、フリー記事(誰でも閲覧可能)があります。有料記事でも、登録会員向け配信期間は登録会員への登録が必要な場合があります。有料会員と登録会員に関するFAQはこちら