Real-time volumetric rendering of dynamic humans

要約

パラメトリック ボディ フィットを伴う単眼ビデオからの動的人間の高速 3D 再構成とリアルタイム レンダリングの方法を提示します。
私たちの方法は、最大 72 時間かかる最近の最先端の代替手段と比較して、単一の GPU を使用して 3 時間未満で動的な人間を再構築できます。
これらの高速化は、線形ブレンド スキニングのみに基づく軽量の変形モデルと、正則ポーズの人物の形状と色をモデル化するための効率的な因数分解された体積表現を使用することによって得られます。
さらに、標準の GPU ハードウェアを活用し、放射輝度フィールドのベイクや変換を行わずに、モバイル VR デバイスでニューラル ヒューマンを毎秒 40 フレームでビジュアル品質の損失を最小限に抑えて視覚化できる、新しいローカル レイ マーチング レンダリングを提案します。
私たちの実験的評価では、最先端の方法で優れた、または競争力のある結果が示されていますが、シンプルなモデルを使用してリアルタイムレンダリングを実現しながら、大幅なトレーニングの高速化を実現しています。

要約(オリジナル)

We present a method for fast 3D reconstruction and real-time rendering of dynamic humans from monocular videos with accompanying parametric body fits. Our method can reconstruct a dynamic human in less than 3h using a single GPU, compared to recent state-of-the-art alternatives that take up to 72h. These speedups are obtained by using a lightweight deformation model solely based on linear blend skinning, and an efficient factorized volumetric representation for modeling the shape and color of the person in canonical pose. Moreover, we propose a novel local ray marching rendering which, by exploiting standard GPU hardware and without any baking or conversion of the radiance field, allows visualizing the neural human on a mobile VR device at 40 frames per second with minimal loss of visual quality. Our experimental evaluation shows superior or competitive results with state-of-the art methods while obtaining large training speedup, using a simple model, and achieving real-time rendering.

arxiv情報

著者 Ignacio Rocco,Iurii Makarov,Filippos Kokkinos,David Novotny,Benjamin Graham,Natalia Neverova,Andrea Vedaldi
発行日 2023-03-21 14:41:25+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.GR パーマリンク