要約
多関節オブジェクトの 3D 構造をキャプチャして再アニメーション化するには、大きな障壁があります。
一方で、広範囲に調整されたマルチビュー設定を必要とする方法は、法外に複雑でリソースを大量に消費するため、実際の適用性が制限されます。
一方、単一カメラの Neural Radiance Fields (NeRF) は、より合理化されたアプローチを提供しますが、トレーニングとレンダリングのコストが過度にかかります。
3D ガウス スプラッティングは適切な代替手段となりますが、その理由は 2 つあります。
第一に、3D 動的ガウスの既存の方法には同期したマルチビュー カメラが必要であり、第二に、動的シナリオにおける制御性が欠如しています。
制御可能なガウス スプラッティングの手法である CoGS を紹介します。これにより、シーン要素の直接操作が可能になり、制御信号を事前に計算する必要がなく、動的シーンのリアルタイム制御が可能になります。
難易度の異なる動的オブジェクトを含む合成データセットと現実世界のデータセットの両方を使用して CoGS を評価しました。
私たちの評価では、視覚的な忠実性の点で、CoGS は既存の動的で制御可能なニューラル表現を常に上回っていました。
要約(オリジナル)
Capturing and re-animating the 3D structure of articulated objects present significant barriers. On one hand, methods requiring extensively calibrated multi-view setups are prohibitively complex and resource-intensive, limiting their practical applicability. On the other hand, while single-camera Neural Radiance Fields (NeRFs) offer a more streamlined approach, they have excessive training and rendering costs. 3D Gaussian Splatting would be a suitable alternative but for two reasons. Firstly, existing methods for 3D dynamic Gaussians require synchronized multi-view cameras, and secondly, the lack of controllability in dynamic scenarios. We present CoGS, a method for Controllable Gaussian Splatting, that enables the direct manipulation of scene elements, offering real-time control of dynamic scenes without the prerequisite of pre-computing control signals. We evaluated CoGS using both synthetic and real-world datasets that include dynamic objects that differ in degree of difficulty. In our evaluations, CoGS consistently outperformed existing dynamic and controllable neural representations in terms of visual fidelity.
arxiv情報
| 著者 | Heng Yu,Joel Julin,Zoltán Á. Milacski,Koichiro Niinuma,László A. Jeni |
| 発行日 | 2024-04-22 17:28:30+00:00 |
| arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google