本記事はロボットとAI技術の専門誌『日経Robotics』のデジタル版です

 ディープラーニング(深層学習)の実行を高速化するアクセラレータの開発が活発になっている。2018年12月には日本のAIベンチャー、Preferred Networks(PFN)がディープラーニングの学習専用のプロセッサ「MN-Core」を開発していることを明らかにしたように、学習の高速化も依然としてホットなテーマだが、実は今、特に活発になっているのが、エッジ側でのディープラーニング推論の高速化だ。

 ディープラーニング学習用のGPUで最大手の米NVIDIA社がエッジ側に向けて「Jetson TX2」や「Xavier」といったアクセラレータを投入しているほか、米Intel社もエッジ向けに「Movidius Neural Compute Stick」(開発元の米Movidius社を買収)を投入。ディープラーニング技術で世界トップとも言える米グーグルも、エッジ側でのディープラーニング推論のアクセラレータ「Edge TPU」を2018年7月に発表。外販を始めた。

 米Amazon.com社もエッジ側のディープラーニングに積極的であることは本誌が前号で報告した通り1)。同社はサーバーでの推論を高速化するプロセッサ「AWS Inferentia」を開発している。グーグルが自社の推論アクセラレータ「TPU」を当初サーバー向けに開発し、それをその後、エッジ向けに改変して投入したように、Amazon社も将来的に「AWS Inferentia」のエッジ版を投入し、「AWS IoT Greengrass ML Inference」などと組み合わせるとみられる。

日本のベンチャーが世界的成果

[画像のクリックで拡大表示]
[画像のクリックで拡大表示]
図1 わずか1000円のボードのGPUで10フレーム/秒を実現
Raspberry Pi Zeroボード上のGPU上でディープラーニング向けのプログラムをアセンブラで記述することで大幅な高速化を実現した。なお、10フレーム/秒は分類タスク実行時のもの。下記の画像は姿勢推定タスクのため別である。

 このように米国の大手IT企業がこぞってディープラーニングの推論アクセラレータに注力する中、ある日本のスタートアップ企業が、世界的に異色の成果を上げた。

 単価わずか500円ほどの市販のボードで、10フレーム/秒(fps)もの速度のディープラーニング推論を実現したのだ(図1)。2015年に創業した精鋭技術者の集団、Idein(イデイン)というベンチャーの成果である。

 Ideinの技術は、完全なビデオレートまでは到達していないが、動画として十分スムーズといえる速度である。モバイル向けのディープニューラルネット「MobileNet v2」で1000クラスの分類タスクをこの速度で実現。既存技術と比べて、10倍ほどの高速化を達成した。

 彼らが使ったのは「Raspberry Pi(ラズベリーパイ、略称、ラズパイ)」。教育用途などとして世界で累計1250万台以上もの出荷実績を持つ小型のCPUボードである。最も安価なものでは600円ほど、高価なものでも4500円ほどで市販されており、その安価さや入手性の良さ、拡張のしやすさなどから、最近では産業用のIoTのエッジ側デバイスとしても使われ始めている。

 ただし、従来はRaspberry PiをIoTのエッジデバイスに使うといっても、ディープラーニングの推論はクラウドサービス側で実施するのが前提だった。カメラなどのセンサを付加し、それをクラウド側に送るゲートウエイのような使い方が主体である。

 ディープニューラルネット(DNN)は画像処理フィルタの膨大な塊のようなものであるため、学習ではなく推論であっても、ある程度の演算性能がなければビデオレートで実行するのは難しい。このため、Raspberry Piはクラウドにデータを上げる“端末"として重宝されることはあっても、Raspberry Piそのものがディープラーニングの推論アクセラレータとして役立つなどと考える企業はこれまでほとんどいなかった。

この先は日経Robotics購読者限定です。