Dynamic LiDAR Re-simulation using Compositional Neural Fields

要約

ダイナミックな運転シーンにおける LiDAR スキャンの高忠実度の再シミュレーションのための新しい神経場ベースのアプローチである DyNFL を紹介します。
DyNFL は、移動オブジェクトの境界ボックスを伴う動的環境からの LiDAR 測定を処理して、編集可能な神経フィールドを構築します。
このフィールドは、個別に再構築された静的背景と動的オブジェクトで構成されており、ユーザーが視点を変更し、オブジェクトの位置を調整し、再シミュレートされたシーンでオブジェクトをシームレスに追加または削除できるようにします。
私たちの方法の重要な革新は、オクルージョンと透明な表面を考慮して、レイドロップテストを通じてさまざまなシーンから再構築された神経資産を効果的に統合する神経フィールド合成技術です。
合成環境と現実世界の両方の環境での評価では、\ShortName が LiDAR スキャンに基づく動的シーン シミュレーションを大幅に改善し、物理的な忠実性と柔軟な編集機能の組み合わせを提供することが実証されました。

要約(オリジナル)

We introduce DyNFL, a novel neural field-based approach for high-fidelity re-simulation of LiDAR scans in dynamic driving scenes. DyNFL processes LiDAR measurements from dynamic environments, accompanied by bounding boxes of moving objects, to construct an editable neural field. This field, comprising separately reconstructed static backgrounds and dynamic objects, allows users to modify viewpoints, adjust object positions, and seamlessly add or remove objects in the re-simulated scene. A key innovation of our method is the neural field composition technique, which effectively integrates reconstructed neural assets from various scenes through a ray drop test, accounting for occlusions and transparent surfaces. Our evaluation with both synthetic and real-world environments demonstrates that \ShortName substantial improves dynamic scene simulation based on LiDAR scans, offering a combination of physical fidelity and flexible editing capabilities.

arxiv情報

著者 Hanfeng Wu,Xingxing Zuo,Stefan Leutenegger,Or Litany,Konrad Schindler,Shengyu Huang
発行日 2023-12-08 18:55:24+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク