Dense RGB SLAM with Neural Implicit Maps

要約

Simultaneous Localization and Mapping (SLAM) でのマップ表現にニューラル暗黙関数を使用するという新しい傾向があります。
RGB-D SLAM で有望な結果を達成した先駆者もいます。
この論文では、ニューラルの暗黙的なマップ表現を使用した密な RGB SLAM メソッドを提示します。
深度入力なしでこの困難な目標を達成するために、暗黙的なマップデコーダーを容易にする階層的な特徴ボリュームを導入します。
この設計により、さまざまな縮尺でシェイプの手がかりが効果的に融合され、マップの再構築が容易になります。
私たちの方法は、レンダリングされたビデオ フレームと入力されたビデオ フレームを一致させることにより、カメラの動きとニューラル インプリシット マップを同時に解決します。
最適化を容易にするために、カメラのポーズとシーンのジオメトリをより適切に制約するために、マルチビュー ステレオの精神でフォトメトリック ワーピング ロスをさらに提案します。
一般的に使用されるベンチマークでこの方法を評価し、最新の RGB および RGB-D SLAM システムと比較します。
私たちの方法は、以前の方法よりも良好な結果を達成し、最近のいくつかの RGB-D SLAM 方法よりも優れています。コードは poptree.github.io/DIM-SLAM/ にあります。

要約(オリジナル)

There is an emerging trend of using neural implicit functions for map representation in Simultaneous Localization and Mapping (SLAM). Some pioneer works have achieved encouraging results on RGB-D SLAM. In this paper, we present a dense RGB SLAM method with neural implicit map representation. To reach this challenging goal without depth input, we introduce a hierarchical feature volume to facilitate the implicit map decoder. This design effectively fuses shape cues across different scales to facilitate map reconstruction. Our method simultaneously solves the camera motion and the neural implicit map by matching the rendered and input video frames. To facilitate optimization, we further propose a photometric warping loss in the spirit of multi-view stereo to better constrain the camera pose and scene geometry. We evaluate our method on commonly used benchmarks and compare it with modern RGB and RGB-D SLAM systems. Our method achieves favorable results than previous methods and even surpasses some recent RGB-D SLAM methods.The code is at poptree.github.io/DIM-SLAM/.

arxiv情報

著者 Heng Li,Xiaodong Gu,Weihao Yuan,Luwei Yang,Zilong Dong,Ping Tan
発行日 2023-02-19 07:19:20+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG, cs.RO パーマリンク