要約
フォトリアリスティックで制御可能な人間のアバターのリアルタイム レンダリングは、コンピューター ビジョンとグラフィックスの基礎として機能します。
最近のニューラル インプリシット レンダリングの進歩により、デジタル アバターに前例のないフォトリアリズムが実現しましたが、リアルタイム パフォーマンスは主に静的なシーンに対してのみ実証されています。
これに対処するために、動的人間をリアルタイムでフォトリアリスティックにレンダリングするアニメーション可能なガウス スプラッティング アプローチである ASH を提案します。
衣服を着た人間をアニメーション化可能な 3D ガウスとしてパラメータ化し、画像空間に効率的に配置して最終的なレンダリングを生成できます。
ただし、3D 空間でガウス パラメーターを単純に学習すると、計算の面で大きな課題が生じます。
代わりに、ガウスを変形可能なキャラクター モデルにアタッチし、2D テクスチャ空間でそのパラメータを学習します。これにより、必要なガウスの数に応じて簡単にスケールできる効率的な 2D 畳み込みアーキテクチャを利用できるようになります。
姿勢制御可能なアバター上で競合する手法と ASH をベンチマークし、我々の手法が既存のリアルタイム手法を大幅に上回り、オフライン手法と同等かそれ以上の結果を示すことを実証しました。
要約(オリジナル)
Real-time rendering of photorealistic and controllable human avatars stands as a cornerstone in Computer Vision and Graphics. While recent advances in neural implicit rendering have unlocked unprecedented photorealism for digital avatars, real-time performance has mostly been demonstrated for static scenes only. To address this, we propose ASH, an animatable Gaussian splatting approach for photorealistic rendering of dynamic humans in real-time. We parameterize the clothed human as animatable 3D Gaussians, which can be efficiently splatted into image space to generate the final rendering. However, naively learning the Gaussian parameters in 3D space poses a severe challenge in terms of compute. Instead, we attach the Gaussians onto a deformable character model, and learn their parameters in 2D texture space, which allows leveraging efficient 2D convolutional architectures that easily scale with the required number of Gaussians. We benchmark ASH with competing methods on pose-controllable avatars, demonstrating that our method outperforms existing real-time methods by a large margin and shows comparable or even better results than offline methods.
arxiv情報
著者 | Haokai Pang,Heming Zhu,Adam Kortylewski,Christian Theobalt,Marc Habermann |
発行日 | 2024-04-15 07:59:37+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google