中部大学工学部の「Machine Perception and Robotics Group(MPRG)」は、1つのDCNN(Deep Convolutional Neural Network)にIR(赤外線)画像と距離画像を入力することで、運転手の骨格検出と顔向き推定の2つのタスクを実行できる手法を開発した(図1)。MPRGは、中部大学工学部 ロボット理工学科の藤吉弘亘研究室と同部 情報工学科の山下隆義研究室からなる。開発中の手法は、自動運転時代の乗員の認識を狙ったものだ。

図1 1つのCNNで骨格検出と顔向き推定を同時に実行
中部大学工学部の「Machine Perception and Robotics Group(MPRG)」は、ディープラーニング(深層学習)を適用した畳み込みニューラルネットワーク(DCNN:Deep Convolutional Neural Network)1つで運転手の骨格検出と顔向き推定を実行できる手法を開発した。同手法をGPU、あるいはCPUで実行すると、いずれの半導体でも、骨格検出と顔向き推定にそれぞれニューラルネットワークを用意する場合に比べて処理時間を約半分にできる。(図:MPRGの資料を基に本誌が作成)
[画像のクリックで拡大表示]

 自動運転で求められるのは、周辺を捉えるカメラ技術だけではない。車内カメラでも、高度な認識が必要になる。例えば「レベル3」相当の自動運転では、自動車側で自律運転ができない状況になった場合に、人手による運転に切り替える必要がある。このとき、運転手がうたた寝していたり、本を読んでいたりすると、スムーズな切り替えが難しい。そこで、運転手の状況をリアルタイムに把握する必要がある。その実現に向けた画像認識技術が、同大学の研究である。

この先は有料会員の登録が必要です。有料会員(月額プラン)は初月無料!

日経 xTECHには有料記事(有料会員向けまたは定期購読者向け)、無料記事(登録会員向け)、フリー記事(誰でも閲覧可能)があります。有料記事でも、登録会員向け配信期間は登録会員への登録が必要な場合があります。有料会員と登録会員に関するFAQはこちら