本記事はロボットとAI技術の専門誌『日経Robotics』のデジタル版です

 ディープニューラルネット(DNN)は画像認識などで高い精度を持つ半面、「挙動がブラックボックスになりがちだ」とのイメージが一般には流布している。しかし、実際にはDNNの挙動を解析し、誤認識などがあった場合の要因を探れる“デバッグ手法"がここ数年で多く登場している。

 DNNを自動車分野向けなどに応用することを目指す日立超LSIシステムズは、そうした手法を社内で既に多く試している企業の1社である注1)。DNNを実用化しようとする企業へのコンサルティングを視野に入れ、学会で発表された各種の技術を実際のデータに適用し、実用的な手法の絞り込みやノウハウの蓄積を図っている。今回は同社の取り組みを紹介しよう。

注1)日立超LSIシステムズは、2019年4月に社名を日立ソリューションズ・テクノロジーに変更予定。

学習データを改善する指標に

 DNNモデルの開発では、最初に用意した学習データだけでは所望の性能を実現できないことがある。その場合、ハイパーパラメータの改善だけでなく、追加の学習データを用意したり、誤認識に影響していると思われるデータを取り除いたりなど、学習データそのものにも手を入れることがある(図1注2)。機械学習では、システムに与えるデータが「振る舞いを決める仕様」の役割を果たすからだ。

図1 学習データ整備のために脱ブラックボックス
日立超LSIシステムズは画像認識などに向けDNNの開発を請け負っており、DNNの改善などに使える解析手法を活用する計画である。例えば、顧客から受け取ったデータだけで認識率の向上が難しい際は、追加の学習データを集めたり、誤認識につながるデータを取り除いたりする必要がある。DNNの挙動を解析することで、加えるべきデータや削除すべきデータの種類が明らかになり、データの整備が容易になると見込む。
[画像のクリックで拡大表示]
注2)DNNの開発では、学習に使うデータの所有権をどう考えるか、問題が発生した時にソフトウエアのバグなのか、学習が不十分なためかをどう切り分けるのかなど、従来のソフトウエア開発と異なる面が多数ある。このため、開発の委託や受託の際にどのような形で契約を結ぶかも大きな課題である。経済産業省が2018年6月に「AI・データの利用に関する契約ガイドライン」を策定するといった支援の動きはあるものの、現場では手探りの状態が続いている。

 ただし、闇雲にデータを追加するのではデータの収集や管理に要するコストがどこまで膨らむかわからない。DNNの挙動を解析して可視化し、誤認識の要因を推定(デバッグ)できれば、学習データの改善にも取り組みやすくなる。

 日立超LSIはDNNの挙動を解析する技術として、大きく分けて2種類の技術を使う計画である。

この先は日経Robotics購読者限定です。