Co-SLAM: Joint Coordinate and Sparse Parametric Encodings for Neural Real-Time SLAM

要約

【タイトル】Co-SLAM:ジョイント座標とスパースパラメトリックエンコーディングを用いたニューラルリアルタイムSLAM

【要約】
– Co-SLAMは、複数解像度ハッシュグリッドでシーンを表現することにより、高速収束性と高周波数の局所特徴の表現能力を活用し、リアルタイムで頑強なカメラ追跡と高品質の表面再構築を実現するニューラルRGB-D SLAMシステムである。
– Co-SLAMは、1つのブロブエンコーディングを組み込み、観測されていない領域での表面の整合性と補完を促進する。このジョイントパラメトリック-座標エンコーディングにより、高速収束と表面の穴埋めの両方の利点を組み合わせて、リアルタイムで頑強なパフォーマンスを実現する。
– さらに、私たちのレイサンプリング戦略により、Co-SLAMは、競合するニューラルSLAMアプローチが行うようにアクティブなキーフレームの数を維持するためのキーフレーム選択を必要とせず、すべてのキーフレームでグローバルバンドル調整を実行できる。
– 実験結果は、Co-SLAMが10-17Hzで実行され、最新のシーン再構築結果を達成し、様々なデータセットやベンチマーク(ScanNet、TUM、Replica、Synthetic RGBDなど)で競争力のある追跡性能を発揮していることを示している。プロジェクトページ:https://hengyiwang.github.io/projects/CoSLAM

要約(オリジナル)

We present Co-SLAM, a neural RGB-D SLAM system based on a hybrid representation, that performs robust camera tracking and high-fidelity surface reconstruction in real time. Co-SLAM represents the scene as a multi-resolution hash-grid to exploit its high convergence speed and ability to represent high-frequency local features. In addition, Co-SLAM incorporates one-blob encoding, to encourage surface coherence and completion in unobserved areas. This joint parametric-coordinate encoding enables real-time and robust performance by bringing the best of both worlds: fast convergence and surface hole filling. Moreover, our ray sampling strategy allows Co-SLAM to perform global bundle adjustment over all keyframes instead of requiring keyframe selection to maintain a small number of active keyframes as competing neural SLAM approaches do. Experimental results show that Co-SLAM runs at 10-17Hz and achieves state-of-the-art scene reconstruction results, and competitive tracking performance in various datasets and benchmarks (ScanNet, TUM, Replica, Synthetic RGBD). Project page: https://hengyiwang.github.io/projects/CoSLAM

arxiv情報

著者 Hengyi Wang,Jingwen Wang,Lourdes Agapito
発行日 2023-04-27 17:46:45+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CV パーマリンク