本記事はロボットとAI技術の専門誌『日経Robotics』のデジタル版です

 CPUのみでディープラーニングの推論を高速化するソフトウエアが出てきていることを本誌は前号で紹介したが1)、組み込み向けにFPGAで高速化するツールも登場してきている。

  例えば、日本のAIベンチャーのLeapMindは、FPGAやARM系CPUなどの組み込みデバイスに向けてディープラーニングのモデルを構築できるクラウドサービス「DeLTA-Lite」を2018年4月から提供している。

 DeLTA-Liteではユーザーは学習データのみ用意すれば良く、ディープラーニングによる学習、モデルの圧縮や最適化、FPGA向け回路の生成といった処理はクラウド上で実施できる。FPGAの論理回路設計の知識などは不要である。米Microsoft社のクラウドサービス「Azure」上で稼働させており、学習にはGPUインスタンスを利用している。米グーグルのディープラーニングフレームワーク「TensorFlow」をベースに構築してある。現時点では米Intel社のARMコア搭載FPGA「Cyclone V SoC」などに正式対応している。

DeLTA-Liteで開発したDNNの実行結果とFPGAボード

この先は日経Robotics購読者限定です。