本記事はロボットとAI技術の専門誌『日経Robotics』のデジタル版です

 米グーグルが2019年5月に発表した「EfficientNet」は、驚くべきニューラルネットである。ImageNetを対象にした画像分類タスクでトップ5精度が97.1%と現在の最高性能(SOTA:state of the art)に迫りながら、パラメータ数は1/8.4、推論速度は6.1倍になったという1)

 これだけの能力を実現できた鍵の1つが、ディープニューラルネット(DNN)の構造を自動設計する技術である。最先端のDNNの構造(アーキテクチャ)は、既に機械が考えているのだ。

 ただし、これまでこのような自動設計技術を利用できるのは、グーグルのように膨大な計算能力を持つ企業に限られると見なされてきた。優れたDNNの構造を多くの候補の中から探し出すためには、多数のGPUを使って何日も計算する必要があったからである。

 この常識を覆す技術を、筑波大学と横浜国立大学が2019年6月開催の国際会議「ICML(International Conference on Machine Learning) 2019」で発表した2)、注1)。つい2年前には500台のGPUを4日間も動かして探していたCNN(convolutional neural network)3)に対抗しうる構造を、米NVIDIA社のGPU「GeForce GTX 1080Ti」を1台搭載したPCを使って、わずか2時間半あまりで見つけ出した。

注1)民間企業のスキルアップAI、信州大学に在籍する研究者も協力した。

この先は日経Robotics購読者限定です。