本連載の集大成としてAR(拡張現実)アプリケーションを作成します。Webカメラを使って撮影した手の姿勢(ジェスチャー)を、AndroidとBeagleBoardを使って画像解析し、ジェスチャーによって異なる赤外線の信号を送信するアプリケーションです。

日本Androidの会 金沢支部 出村 成和

 前回までで、AndroidとBeagleBoardに接続されたWebカメラを制御して画像をキャプチャーできるようにし、さらに、パソコン用学習リモコン「PC-OP-RS1」を利用して赤外線リモコンの信号を記録・送信できるAndroidアプリケーションを作成してきました。

 今回はこれらの2つのアプリケーションの機能に、手の姿勢(ハンドジェスチャー)をAndroidのアプリケーション内で解析させ、その姿勢(ジェスチャー)で赤外線の信号を送信する機能を追加したアプリケーション「ARemoconGesture」を作成します。ARemoconGestureの処理の流れは図1のようになります。

図1●ARemoconGesture の処理の流れ
図1●ARemoconGesture の処理の流れ

 ARemoconGestureを使えば、テレビのリモコンではなく、“グー”などのジェスチャーをテレビに向かって見せるように出すだけで、テレビのチャンネルが切り換えられるようになります。

 まずは、画像解析するために利用する「OpenCV」(著名なグラフィックスライブラリ)をAndroidで利用するための方法を中心に解説します。

この先は会員の登録が必要です。有料会員(月額プラン)は初月無料!

日経 xTECHには有料記事(有料会員向けまたは定期購読者向け)、無料記事(登録会員向け)、フリー記事(誰でも閲覧可能)があります。有料記事でも、登録会員向け配信期間は登録会員への登録が必要な場合があります。有料会員と登録会員に関するFAQはこちら