3DCGキャラクターを動かすには、髪や体、衣装のリアルタイムレンダリングと、顔や体、指のモーションキャプチャー、音声と口の動きを同期する技術などが必要となる。グリーのスライド。
[画像のクリックで拡大表示]

 第20回を迎えた国内最大級のゲーム開発者会議「コンピュータエンターテインメントデベロッパーズカンファレンス2018(CEDEC 2018)」が、2018年8月22~24日にパシフィコ横浜で開催された。VR(Virtual Reality)に関連した講演数は2017年に比べて半減したものの、3D(3次元)CGキャラクターを動かすための、モーションキャプチャー環境についての講演が目立った。

VRでキャラクターになりきる

 キャラクターを使ったライブイベントや、VRでキャラクターの姿になって交流する「ソーシャルVR」が盛り上がりを見せ、消費者向けで「脱・ゲーム」が進んでいる。

 これまで、AR(Augmented Reality)ライブや超歌舞伎など、キャラクターを現実のイベントに「召喚」するイベントを開催してきたドワンゴは、モーションキャプチャー環境の選定などについて講演した(図1)。モーションキャプチャー環境は大きく4つに分類され、どれも一長一短であり、状況に応じて最適な環境は異なると説明した。

図1 現状のモーションキャプチャー環境は大きく4種類に分けられる
台湾HTCの「Vive」などのVR機器、中国Noitomの「Perception Neuron」などの慣性式、米マイクロソフトの「Kinect」やWebカメラなどを使った画像処理技術、米OptiTrackの「OptiTrack」などの光学式の4種類。ドワンゴのスライド。
[画像のクリックで拡大表示]

この先は有料会員の登録が必要です。「日経エレクトロニクス」定期購読者もログインしてお読みいただけます。有料会員(月額プラン)は初月無料!

日経 xTECHには有料記事(有料会員向けまたは定期購読者向け)、無料記事(登録会員向け)、フリー記事(誰でも閲覧可能)があります。有料記事でも、登録会員向け配信期間は登録会員への登録が必要な場合があります。有料会員と登録会員に関するFAQはこちら