要約
3Dガウススプラッティング(3DG)は、最近、密集した同時局在とマッピング(SLAM)の幾何学と外観の強力な表現として浮上しました。
3Dガウスの迅速で微分可能なラスター化により、多くの3DGSスラムメソッドは、リアルタイムのレンダリングと加速トレーニングを達成します。
ただし、これらの方法は主に慣性データを見落としているため、魔女は慣性測定ユニット(IMU)から収集された重要な情報です。
この論文では、IMUが強化したカメラ追跡モジュールと、マッピングのための現実的な3Dガウスベースのシーン表現で構成される新しいガウス系型スラムシステムであるGi-Slamを紹介します。
私たちの方法では、3Dガウスのスプラットスラムを支える深い学習フレームワークにシームレスに統合するIMUの損失を導入し、カメラ追跡の精度、堅牢性、効率を効果的に向上させます。
さらに、当社のSLAMシステムは、IMU統合の有無にかかわらず、単眼、ステレオ、RGBDカメラなどの幅広いセンサー構成をサポートしています。
私たちの方法は、EurocおよびTUM-RGBDデータセットの既存の最先端のリアルタイム方法と比較して、競争力のあるパフォーマンスを実現します。
要約(オリジナル)
3D Gaussian Splatting (3DGS) has recently emerged as a powerful representation of geometry and appearance for dense Simultaneous Localization and Mapping (SLAM). Through rapid, differentiable rasterization of 3D Gaussians, many 3DGS SLAM methods achieve near real-time rendering and accelerated training. However, these methods largely overlook inertial data, witch is a critical piece of information collected from the inertial measurement unit (IMU). In this paper, we present GI-SLAM, a novel gaussian-inertial SLAM system which consists of an IMU-enhanced camera tracking module and a realistic 3D Gaussian-based scene representation for mapping. Our method introduces an IMU loss that seamlessly integrates into the deep learning framework underpinning 3D Gaussian Splatting SLAM, effectively enhancing the accuracy, robustness and efficiency of camera tracking. Moreover, our SLAM system supports a wide range of sensor configurations, including monocular, stereo, and RGBD cameras, both with and without IMU integration. Our method achieves competitive performance compared with existing state-of-the-art real-time methods on the EuRoC and TUM-RGBD datasets.
arxiv情報
著者 | Xulang Liu,Ning Tan |
発行日 | 2025-03-24 01:45:40+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google