要約
我々は、単眼 RGBD 入力に対する高密度ニューラル同時位置特定およびマッピング (SLAM) アプローチを提案します。これは、入力依存のデータ駆動型の方法で反復的に生成される点群内のニューラル シーン表現の特徴を固定します。
RGBD ベースの再レンダリング損失を最小限に抑えることで、同じポイントベースのニューラル シーン表現を使用して追跡とマッピングの両方を実行できることを示します。
シーンの特徴をまばらなグリッドに固定する最近の高密度ニューラル SLAM 手法とは対照的に、私たちのポイントベースのアプローチでは、アンカー ポイントの密度を入力の情報密度に動的に適応させることができます。
この戦略は、詳細が少ない領域での実行時間とメモリ使用量を削減し、より高いポイント密度を細かい詳細の解決に割り当てます。
私たちのアプローチは、レプリカ、TUM-RGBD、および ScanNet データセットでの追跡、マッピング、レンダリングの精度において、既存の高密度ニューラル RGBD SLAM 手法よりも優れているか、または競合します。
ソース コードは https://github.com/eriksandstroem/Point-SLAM で入手できます。
要約(オリジナル)
We propose a dense neural simultaneous localization and mapping (SLAM) approach for monocular RGBD input which anchors the features of a neural scene representation in a point cloud that is iteratively generated in an input-dependent data-driven manner. We demonstrate that both tracking and mapping can be performed with the same point-based neural scene representation by minimizing an RGBD-based re-rendering loss. In contrast to recent dense neural SLAM methods which anchor the scene features in a sparse grid, our point-based approach allows dynamically adapting the anchor point density to the information density of the input. This strategy reduces runtime and memory usage in regions with fewer details and dedicates higher point density to resolve fine details. Our approach performs either better or competitive to existing dense neural RGBD SLAM methods in tracking, mapping and rendering accuracy on the Replica, TUM-RGBD and ScanNet datasets. The source code is available at https://github.com/eriksandstroem/Point-SLAM.
arxiv情報
著者 | Erik Sandström,Yue Li,Luc Van Gool,Martin R. Oswald |
発行日 | 2023-09-12 16:55:30+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google