Efficient Implicit Neural Reconstruction Using LiDAR

要約

暗黙的なニューラル表現を使用してシーン ジオメトリをモデル化すると、精度、柔軟性、およびメモリ使用量が少ないという利点が明らかになりました。
以前のアプローチでは、カラーまたは深度画像を使用して印象的な結果が得られましたが、不十分な照明条件や大規模なシーンの処理はまだ困難です。
入力としてグローバル ポイント クラウドを使用する方法では、正確な登録とグラウンド トゥルース座標ラベルが必要になるため、アプリケーション シナリオが制限されます。
この論文では、まばらなLiDAR点群と大まかなオドメトリを使用して、数分以内に効率的に細粒度の暗黙的な占有フィールドを再構築する新しい方法を提案します。
2D レンダリングを行わずに 3D 空間で直接監視する新しい損失関数を導入し、情報の損失を回避します。
また、入力フレームのポーズをエンド ツー エンドで微調整し、グローバル ポイント クラウド レジストレーションなしで一貫したジオメトリを作成します。
私たちが知る限り、私たちの方法は、LiDAR のみの入力から暗黙的なシーン表現を再構築する最初の方法です。
屋内と屋外のシーンを含む合成データセットと現実世界のデータセットに関する実験は、私たちの方法が効果的、効率的、正確であることを証明し、密な入力を使用する既存の方法と同等の結果を得ています。

要約(オリジナル)

Modeling scene geometry using implicit neural representation has revealed its advantages in accuracy, flexibility, and low memory usage. Previous approaches have demonstrated impressive results using color or depth images but still have difficulty handling poor light conditions and large-scale scenes. Methods taking global point cloud as input require accurate registration and ground truth coordinate labels, which limits their application scenarios. In this paper, we propose a new method that uses sparse LiDAR point clouds and rough odometry to reconstruct fine-grained implicit occupancy field efficiently within a few minutes. We introduce a new loss function that supervises directly in 3D space without 2D rendering, avoiding information loss. We also manage to refine poses of input frames in an end-to-end manner, creating consistent geometry without global point cloud registration. As far as we know, our method is the first to reconstruct implicit scene representation from LiDAR-only input. Experiments on synthetic and real-world datasets, including indoor and outdoor scenes, prove that our method is effective, efficient, and accurate, obtaining comparable results with existing methods using dense input.

arxiv情報

著者 Dongyu Yan,Xiaoyang Lyu,Jieqi Shi,Yi Lin
発行日 2023-02-28 07:31:48+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO パーマリンク