CP-SLAM: Collaborative Neural Point-based SLAM System

要約

この論文では、RGB-D 画像シーケンスを使用した協調型暗黙的ニューラル同時位置特定およびマッピング (SLAM) システムについて説明します。このシステムは、オドメトリ、ループ検出、サブマップ融合、およびグローバル リファインメントを含む完全なフロントエンドおよびバックエンド モジュールで構成されます。
これらすべてのモジュールを統一フレームワークで有効にするために、各ポイントがシーン エンコーディング用の学習可能なニューラル機能を維持し、特定のキーフレームに関連付けられる、新しいニューラル ポイント ベースの 3D シーン表現を提案します。
さらに、一貫性と協力性を向上させるために、分散型から集中型への学習戦略が協調的暗黙的 SLAM に対して提案されています。
従来のバンドル調整と同様にシステムの精度を向上させるために、新しいグローバル最適化フレームワークも提案されています。
さまざまなデータセットでの実験により、カメラ追跡とマッピングの両方において提案された方法の優位性が実証されました。

要約(オリジナル)

This paper presents a collaborative implicit neural simultaneous localization and mapping (SLAM) system with RGB-D image sequences, which consists of complete front-end and back-end modules including odometry, loop detection, sub-map fusion, and global refinement. In order to enable all these modules in a unified framework, we propose a novel neural point based 3D scene representation in which each point maintains a learnable neural feature for scene encoding and is associated with a certain keyframe. Moreover, a distributed-to-centralized learning strategy is proposed for the collaborative implicit SLAM to improve consistency and cooperation. A novel global optimization framework is also proposed to improve the system accuracy like traditional bundle adjustment. Experiments on various datasets demonstrate the superiority of the proposed method in both camera tracking and mapping.

arxiv情報

著者 Jiarui Hu,Mao Mao,Hujun Bao,Guofeng Zhang,Zhaopeng Cui
発行日 2023-11-14 09:17:15+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.GR, cs.RO パーマリンク