LODE: Locally Conditioned Eikonal Implicit Scene Completion from Sparse LiDAR

要約

シーンの完成とは、複雑な 3D シーンの不完全な認識から高密度のシーン表現を取得することを指します。
これは、ロボットがマルチスケールの障害物を検出し、自動運転などのシナリオでオブジェクトの閉塞を分析するのに役立ちます。
最近の進歩は、暗黙的な表現学習を活用してシーンを連続的に完成させ、エイコナル方程式などの物理的制約によって達成できることを示しています。
ただし、以前の Eikonal 補完方法は、数十メッシュのスケールで水密メッシュの結果のみを示します。
それらのどれも、何千ものシーンのスケールで開いている大規模なシーンの非防水 LiDAR 点群に対しては成功していません。
この論文では、密な境界値の制約として機能する局所化された事前形状の暗黙的表現を調整する新しい Eikonal の定式化を提案し、それが SemanticKITTI と SemanticPOSS で機能することを示します。
また、ネットワーク アーキテクチャにわずかな変更を加えるだけで、セマンティック Eikonal シーンの完成まで拡張することもできます。
広範な定量的および定性的な結果により、既存の Eikonal メソッドの利点と欠点を実証し、それが自然に新しい局所調整製剤につながります。
特に、SemanticKITTI では IoU が 31.7% から 51.2% に、SemanticPOSS では 40.5% から 48.7% に改善されています。
メソッドを大幅に削減し、提案された定式化が幅広い実装ハイパーパラメーターに対して堅牢であることを示します。
コードとモデルは、https://github.com/AIR-DISCOVER/LODE で公開されています。

要約(オリジナル)

Scene completion refers to obtaining dense scene representation from an incomplete perception of complex 3D scenes. This helps robots detect multi-scale obstacles and analyse object occlusions in scenarios such as autonomous driving. Recent advances show that implicit representation learning can be leveraged for continuous scene completion and achieved through physical constraints like Eikonal equations. However, former Eikonal completion methods only demonstrate results on watertight meshes at a scale of tens of meshes. None of them are successfully done for non-watertight LiDAR point clouds of open large scenes at a scale of thousands of scenes. In this paper, we propose a novel Eikonal formulation that conditions the implicit representation on localized shape priors which function as dense boundary value constraints, and demonstrate it works on SemanticKITTI and SemanticPOSS. It can also be extended to semantic Eikonal scene completion with only small modifications to the network architecture. With extensive quantitative and qualitative results, we demonstrate the benefits and drawbacks of existing Eikonal methods, which naturally leads to the new locally conditioned formulation. Notably, we improve IoU from 31.7% to 51.2% on SemanticKITTI and from 40.5% to 48.7% on SemanticPOSS. We extensively ablate our methods and demonstrate that the proposed formulation is robust to a wide spectrum of implementation hyper-parameters. Codes and models are publicly available at https://github.com/AIR-DISCOVER/LODE.

arxiv情報

著者 Pengfei Li,Ruowen Zhao,Yongliang Shi,Hao Zhao,Jirui Yuan,Guyue Zhou,Ya-Qin Zhang
発行日 2023-02-27 18:59:58+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク