Neural LiDAR Fields for Novel View Synthesis

要約

タイトル:新しい視点合成のためのニューラルLiDARフィールド
要約:
– LiDAR測定から神経フィールドシーン表現を最適化するNeural Fields for LiDAR(NFL)という方法を提案する。
– NFLは、神経フィールドのレンダリング力とLiDAR感知プロセスの詳細な物理的動機付けモデルを組み合わせることにより、ビーム発散、二次反射、レイトレーシングなどのキーとなるセンサーの挙動を正確に再現することができる。
– NFLを人工的および実際のLiDARスキャンで評価し、LiDAR新しい視点合成タスクにおいて、明示的に再構築してシミュレートする方法や他のNeRFスタイルの方法よりも優れた性能を示すことを示す。
– さらに、合成されたビューの改良されたリアリティが実際のスキャンとのドメインギャップを狭め、改良された登録およびセマンティックセグメンテーション性能につながることを示す。

要約(オリジナル)

We present Neural Fields for LiDAR (NFL), a method to optimise a neural field scene representation from LiDAR measurements, with the goal of synthesizing realistic LiDAR scans from novel viewpoints. NFL combines the rendering power of neural fields with a detailed, physically motivated model of the LiDAR sensing process, thus enabling it to accurately reproduce key sensor behaviors like beam divergence, secondary returns, and ray dropping. We evaluate NFL on synthetic and real LiDAR scans and show that it outperforms explicit reconstruct-then-simulate methods as well as other NeRF-style methods on LiDAR novel view synthesis task. Moreover, we show that the improved realism of the synthesized views narrows the domain gap to real scans and translates to better registration and semantic segmentation performance.

arxiv情報

著者 Shengyu Huang,Zan Gojcic,Zian Wang,Francis Williams,Yoni Kasten,Sanja Fidler,Konrad Schindler,Or Litany
発行日 2023-05-02 17:55:38+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CV パーマリンク