要約
動的輝度場再構成法は、動的なシーンの時間的に変化する構造と外観をモデル化することを目的としている。しかし、既存の手法は、正確なカメラのポーズがStructure from Motion(SfM)アルゴリズムによって確実に推定されることを前提としている。そのため、これらの手法は、非常に動的な物体、粗いテクスチャの表面、回転するカメラの動きなどの困難な映像において、SfMアルゴリズムがしばしば失敗したり、誤った姿勢を生成するため、信頼性に欠けるものである。我々は、カメラパラメータ(姿勢と焦点距離)と共に静的および動的な輝度場を共同で推定することにより、このロバスト性の問題に対処する。我々は、定量的かつ定性的な実験により、本アプローチの頑健性を実証する。その結果、最新のダイナミックビュー合成手法と比較して、良好な性能を示すことができた。
要約(オリジナル)
Dynamic radiance field reconstruction methods aim to model the time-varying structure and appearance of a dynamic scene. Existing methods, however, assume that accurate camera poses can be reliably estimated by Structure from Motion (SfM) algorithms. These methods, thus, are unreliable as SfM algorithms often fail or produce erroneous poses on challenging videos with highly dynamic objects, poorly textured surfaces, and rotating camera motion. We address this robustness issue by jointly estimating the static and dynamic radiance fields along with the camera parameters (poses and focal length). We demonstrate the robustness of our approach via extensive quantitative and qualitative experiments. Our results show favorable performance over the state-of-the-art dynamic view synthesis methods.
arxiv情報
著者 | Yu-Lun Liu,Chen Gao,Andreas Meuleman,Hung-Yu Tseng,Ayush Saraf,Changil Kim,Yung-Yu Chuang,Johannes Kopf,Jia-Bin Huang |
発行日 | 2023-01-05 18:59:51+00:00 |
arxivサイト | arxiv_id(pdf) |