本記事はロボットとAI技術の専門誌『日経Robotics』のデジタル版です

 米IBM社がディープニューラルネットワーク(DNN)の学習や推論を高速に実行する専用チップ(DNNアクセラレータ)の研究開発に一段と力を注ぎ始めた。

 2019年2月に、同社の研究部門IBM Researchは「AI Hardware Center」と呼ぶ研究開発組織を発足。大学や半導体メーカー、半導体製造装置メーカーなどと協力して、今後10年でDNNアクセラレータの電力当たりの性能を1000倍に高めるという目標を掲げる1)、注1)

注1)研究開発に協力する企業パートナーとして、韓国Samsung Electronics社、イスラエルMellanox Technologies社(米NVIDIA社が2019年3月に買収を発表)、米Applied Materials社、東京エレクトロンなどの名前を挙げている。

 研究成果の応用範囲は、同社が得意とするスーパーコンピュータに限らない。開発パートナーや顧客の要求に応じて、いわゆるエッジでのAI推論にも利用可能にする計画だ。このため、広い範囲の用途にスケーラブルに対応できるハードウエアやソフトウエアの構築を目指している。

 その一環として、日本IBMの東京基礎研究所が携わるのが、DNNアクセラレータ向けのコンパイラの開発である。2019年4月開催のシンポジウム「COOL Chips 22」で、同社は技術の概要を明らかにした2)。以下では、IBM社が想定するハードウエアのアーキテクチャと併せて、電力効率の高いDNNアクセラレータを実現するためのコンパイラ技術を解説する。

この先は日経Robotics購読者限定です。