要約
最近開発されたニューラル放射輝度(NERF)および3Dガウススプラッティング(3DG)は、視覚的なスラムの励ましと印象的な結果を示しています。
ただし、ほとんどの代表的な方法ではRGBDセンサーが必要であり、屋内環境でのみ利用できます。
大規模な屋外シナリオでの再建の堅牢性は未開拓のままです。
このペーパーでは、LSG-SLAMと呼ばれるステレオカメラを備えた大規模な3DGSベースのビジュアルスラムを紹介します。
提案されているLSG-SLAMは、マルチモダリティ戦略を採用して、大規模なビューの変更に基づいて以前のポーズを推定しています。
追跡では、レンダリング損失における外観の類似性の悪影響を緩和するために、特徴調整のゆがみの制約を導入します。
大規模なシナリオのスケーラビリティについては、連続したガウスのスプラッティングサブマップを導入して、メモリが限られている無制限のシーンに取り組みます。
ループは、場所認識によってGSサブマップ間で検出され、ループされたキーフレーム間の相対的なポーズは、レンダリングと特徴のワーピング損失を利用して最適化されています。
カメラのグローバルな最適化とガウスポイントのポーズの後、構造改良モジュールは再構成品質を向上させます。
EurocおよびKittiデータセットに関する広範な評価により、LSG-SLAMは既存のニューラル、3DGSベース、さらには従来のアプローチよりも優れたパフォーマンスを達成します。
プロジェクトページ:https://lsg-slam.github.io。
要約(オリジナル)
The recently developed Neural Radiance Fields (NeRF) and 3D Gaussian Splatting (3DGS) have shown encouraging and impressive results for visual SLAM. However, most representative methods require RGBD sensors and are only available for indoor environments. The robustness of reconstruction in large-scale outdoor scenarios remains unexplored. This paper introduces a large-scale 3DGS-based visual SLAM with stereo cameras, termed LSG-SLAM. The proposed LSG-SLAM employs a multi-modality strategy to estimate prior poses under large view changes. In tracking, we introduce feature-alignment warping constraints to alleviate the adverse effects of appearance similarity in rendering losses. For the scalability of large-scale scenarios, we introduce continuous Gaussian Splatting submaps to tackle unbounded scenes with limited memory. Loops are detected between GS submaps by place recognition and the relative pose between looped keyframes is optimized utilizing rendering and feature warping losses. After the global optimization of camera poses and Gaussian points, a structure refinement module enhances the reconstruction quality. With extensive evaluations on the EuRoc and KITTI datasets, LSG-SLAM achieves superior performance over existing Neural, 3DGS-based, and even traditional approaches. Project page: https://lsg-slam.github.io.
arxiv情報
著者 | Zhe Xin,Chenyang Wu,Penghui Huang,Yanyong Zhang,Yinian Mao,Guoquan Huang |
発行日 | 2025-05-15 03:00:32+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google