要約
正確かつ堅牢な位置特定とマッピングは、ほとんどの自律ロボットにとって不可欠なコンポーネントです。
この論文では、PIN-SLAM と呼ばれる、グローバルに一貫したマップを構築するための SLAM システムを提案します。このシステムは、弾力的でコンパクトなポイントベースの暗黙的なニューラル マップ表現に基づいています。
私たちのアプローチは、距離測定値を入力として受け取り、ローカルの暗黙的な符号付き距離フィールドの増分学習と、対応関係のないポイントツー暗黙的なモデル登録を使用した現在のローカル マップに基づく姿勢推定を交互に行います。
私たちの暗黙的なマップは、疎な最適化可能なニューラル ポイントに基づいており、本質的に弾性があり、ループを閉じるときにグローバルなポーズ調整によって変形可能です。
ループはニューラル ポイントの特徴を使用して検出することもできます。
広範な実験により、PIN-SLAM がさまざまな環境に対して堅牢であり、LiDAR や RGB-D カメラなどのさまざまな距離センサーに多用途であることが検証されています。
PIN-SLAM は、最先端の LiDAR オドメトリまたは SLAM システムと同等または同等の姿勢推定精度を実現し、正確に再構築できるより一貫性のある非常にコンパクトな暗黙的マップを維持しながら、最近のニューラル暗黙的 SLAM アプローチを上回ります。
そして完全なメッシュ。
最後に、効率的なニューラル ポイントのインデックス作成のためのボクセル ハッシュと、最近接ポイントの関連付けを使用しない高速な暗黙的なマップベースの登録のおかげで、PIN-SLAM は中程度の GPU 上のセンサー フレーム レートで実行できます。
コードは https://github.com/PRBonn/PIN_SLAM から入手できます。
要約(オリジナル)
Accurate and robust localization and mapping are essential components for most autonomous robots. In this paper, we propose a SLAM system for building globally consistent maps, called PIN-SLAM, that is based on an elastic and compact point-based implicit neural map representation. Taking range measurements as input, our approach alternates between incremental learning of the local implicit signed distance field and the pose estimation given the current local map using a correspondence-free, point-to-implicit model registration. Our implicit map is based on sparse optimizable neural points, which are inherently elastic and deformable with the global pose adjustment when closing a loop. Loops are also detected using the neural point features. Extensive experiments validate that PIN-SLAM is robust to various environments and versatile to different range sensors such as LiDAR and RGB-D cameras. PIN-SLAM achieves pose estimation accuracy better or on par with the state-of-the-art LiDAR odometry or SLAM systems and outperforms the recent neural implicit SLAM approaches while maintaining a more consistent, and highly compact implicit map that can be reconstructed as accurate and complete meshes. Finally, thanks to the voxel hashing for efficient neural points indexing and the fast implicit map-based registration without closest point association, PIN-SLAM can run at the sensor frame rate on a moderate GPU. Codes will be available at: https://github.com/PRBonn/PIN_SLAM.
arxiv情報
著者 | Yue Pan,Xingguang Zhong,Louis Wiesmann,Thorbjörn Posewsky,Jens Behley,Cyrill Stachniss |
発行日 | 2024-07-02 08:06:29+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google