NVIDIA、AIでインタラクティブな世界を生み出すための新たな研究を発表

ゲーミング、自動車、ロボティクス、VR向けの仮想世界を作り出す可能性を秘めた発明

 

 2018年12月3日、モントリオール−Conference on Neural Information Processing Systems(NeurIPS 2018)−NVIDIAは本日、現実世界の動画でトレーニングしたモデルを使って、開発者が完全に人工的で、インタラクティブな3D環境をレンダリングすることを可能にする、画期的なAI研究を発表しました。

 本プロジェクトに取り組んだ、NVIDIA Researchの研究者たちは、ニューラル ネットワークを使い、リアルタイムで人工的な3D環境をレンダリングしました。現在、仮想世界のあらゆるオブジェクトは、個々にモデルを生成する必要がありましたが、それにはかなりの時間と費用がかかります。それに対して、NVIDIAの研究では、現実のビデオから自動的に学習するモデルを採用して、建物や樹木、車両などのオブジェクトをレンダリングしています。

 このテクノロジにより、ゲーミングや自動車、建築、ロボティクス、バーチャル リアリティのための仮想世界を迅速に構築できる可能性が生まれます。たとえば、現実世界の場所をもとにしたインタラクティブなシーンを生成したり、お気に入りのポップスターのダンスを自分がそっくりそのまま踊っているようなシーンをファンに見せることもできるでしょう。

 この研究の開発チームを率いてきた、NVIDIAのディープラーニング応用研究担当バイス プレジデントのブライアン カタンザーロ(Bryan Catanzaro)は、次のように述べています。「NVIDIAは、25年間にわたって、インタラクティブなグラフィックスを生成するための新しい方法を生み出してきましたが、ニューラル ネットワークを使った手法は今回初めて実現しました。ニューラル ネットワーク、その中でも具体的に言うと生成モデルは、グラフィックスの創出に変化をもたらすようになります。これによって、開発者は従来の何分の1かのコストで新しいシーンを作れるようになるでしょう」

 この研究成果の1つとなるのがシンプルなドライブ ゲームです。このゲームでは、参加者が都会のシーンを走行することができます。あらゆるコンテンツは、従来のグラフィックス エンジンで生成された3Dワールドのスケッチを動画に変換するニューラル ネットワークを使って、インタラクティブにレンダリングされます。このインタラクティブ デモは、モントリオールのNeurIPS 2018カンファレンスで公開されます。

 生成ニューラル ネットワークは、照明や素材、ダイナミクスといった、世界の外観をモデル化することを学習しました。シーンがすべて人工的に生成されるので、オブジェクトの削除、修正または追加といった編集も簡単に行うことができます。

 研究者たちは、その論文( https://arxiv.org/pdf/1808.06601.pdf )において、「視覚世界のダイナミクスをモデル化および再創造する能力は、知的エージェントの構築に不可欠である。純粋に科学的な関心を別にしても、継続的な視覚経験を人工的に作成するための学習は、コンピューター ビジョンやロボティクス、コンピューター グラフィックスといった分野で多様な用途を持つ」と説明しています。

詳しくは、NVIDIAのDeveloper News Centerの記事( https://news.developer.nvidia.com/nvidia-invents-ai-interactive-graphics/ )をご覧ください。

 ※以下は添付リリースを参照

 ※参考画像は添付の関連資料を参照

 

 

リリース本文中の「関連資料」は、こちらのURLからご覧ください。

参考画像

http://release.nikkei.co.jp/attach_file/0497264_02.jpg

添付リリース

http://release.nikkei.co.jp/attach_file/0497264_01.pdf