本記事はロボットとAI技術の専門誌『日経Robotics』のデジタル版です

 大規模なディープニューラルネット(DNN)をネットワークのエッジ側にある機器で実行する際に問題になるのが、高い計算能力やメモリ容量が必要になることである。

 この負担を軽減するため、様々な手法が考案されてきた。DNNのパラメータ(重み)数の削減(枝刈り)や、8ビット整数など低ビット表現への量子化、ソフトウエア実装時の工夫などで、いずれも多かれ少なかれ開発の手間を増やす手段だった。

 この状況に一石を投じる成果を、東芝と理化学研究所AIPセンターが発表した注1)。ある3つの条件下でDNNを普通に学習させるだけで、分類などの性能をほとんど劣化させずにDNNが大幅にコンパクトになる現象を見出したのである(図1)。

注1)両者が2017年4月に設立した理研AIP-東芝連携センターの成果である。

この先は日経Robotics購読者限定です。