要約
動的シーンのオンライン再構成は、既存のオフライン動的再構成手法が録画されたビデオ入力に依存しているのに対し、ライブストリーミングビデオ入力からシーンを学習できる点で重要である。しかし、これまでのオンライン再構成手法は、主に効率とレンダリング品質に焦点を当てており、その結果の時間的一貫性を見落としている。本論文では、実世界の録画におけるノイズのような誤差が、オンライン再構成における時間的一貫性に影響を与えることを明らかにする。我々は、カメラにおいて不可避である時間的不整合を伴う観測から、オンライン再構成における時間的整合性を向上させる方法を提案する。本手法は、学習された誤差を差し引くことで、理想的な観測を復元することを示す。本手法を様々なベースラインに適用することで、データセット間で時間的一貫性とレンダリング品質の両方が大幅に向上することを実証する。コード、動画結果、チェックポイントはhttps://bbangsik13.github.io/OR2。
要約(オリジナル)
Online reconstruction of dynamic scenes is significant as it enables learning scenes from live-streaming video inputs, while existing offline dynamic reconstruction methods rely on recorded video inputs. However, previous online reconstruction approaches have primarily focused on efficiency and rendering quality, overlooking the temporal consistency of their results, which often contain noticeable artifacts in static regions. This paper identifies that errors such as noise in real-world recordings affect temporal inconsistency in online reconstruction. We propose a method that enhances temporal consistency in online reconstruction from observations with temporal inconsistency which is inevitable in cameras. We show that our method restores the ideal observation by subtracting the learned error. We demonstrate that applying our method to various baselines significantly enhances both temporal consistency and rendering quality across datasets. Code, video results, and checkpoints are available at https://bbangsik13.github.io/OR2.
arxiv情報
| 著者 | Youngsik Yun,Jeongmin Bae,Hyunseung Son,Seoha Kim,Hahyun Lee,Gun Bang,Youngjung Uh |
| 発行日 | 2025-05-02 12:50:24+00:00 |
| arxivサイト | arxiv_id(pdf) |