要約
ダイナミックな走行シーンにおけるLiDARスキャンの高忠実度再シミュレーションのための、新しいニューラルフィールドベースのアプローチであるDyNFLを紹介します。DyNFLは、動的環境からのLiDAR計測値を、移動物体のバウンディングボックスを伴って処理し、編集可能なニューラル・フィールドを構築します。このフィールドは、静的な背景と動的なオブジェクトを別々に再構成したもので、ユーザは視点を変更したり、オブジェクトの位置を調整したり、再シミュレーションされたシーンにオブジェクトをシームレスに追加したり削除したりすることができます。この手法の重要な革新点は神経場合成技術であり、オクルージョンや透明な表面を考慮した光線落下テストを通じて、様々なシーンから再構成された神経資産を効果的に統合する。合成環境と実環境の両方を用いた評価により、DyNFLが物理的な忠実性と柔軟な編集機能を兼ね備え、ダイナミックシーンLiDARシミュレーションを大幅に改善することが実証されました。
要約(オリジナル)
We introduce DyNFL, a novel neural field-based approach for high-fidelity re-simulation of LiDAR scans in dynamic driving scenes. DyNFL processes LiDAR measurements from dynamic environments, accompanied by bounding boxes of moving objects, to construct an editable neural field. This field, comprising separately reconstructed static background and dynamic objects, allows users to modify viewpoints, adjust object positions, and seamlessly add or remove objects in the re-simulated scene. A key innovation of our method is the neural field composition technique, which effectively integrates reconstructed neural assets from various scenes through a ray drop test, accounting for occlusions and transparent surfaces. Our evaluation with both synthetic and real-world environments demonstrates that DyNFL substantially improves dynamic scene LiDAR simulation, offering a combination of physical fidelity and flexible editing capabilities.
arxiv情報
| 著者 | Hanfeng Wu,Xingxing Zuo,Stefan Leutenegger,Or Litany,Konrad Schindler,Shengyu Huang |
| 発行日 | 2024-04-03 15:40:00+00:00 |
| arxivサイト | arxiv_id(pdf) |