要約
視覚的な同時ローカリゼーションとマッピング(SLAM)は、極端な視点、スケール、照明のバリエーションの下で正確なままでなければなりません。
広く採用されているORB-SLAM3は、これらの体制で手作りのORBキーポイントに依存しているため、これらの体制でぐらつきます。
SuperPoint-SLAM3を導入します。これは、(i)ORBを自己監視スーパーポイント検出器に置き換えるドロップインアップグレード – デスプリシcor、(ii)適応性のない非最大抑制(ANM)を介して空間的に均一なキーポイントを施行し、(iii)は、学習ベースのループフローチャのための軽量のNetvlad Place-Recognition Headを統合します。
Kitti Odometryでは、ベンチマークSuperPoint-SLAM3は平均翻訳誤差を4.15%から0.34%に減らし、平均回転誤差は0.0027度/mから0.0010 deg/mに減少します。
Euroc MAVデータセットでは、すべてのシーケンスにわたって両方のエラーをほぼ半分にします(例:V2 \ _03:1.58% – > 0.79%)。
これらの利益は、現代の深い特徴を学んだループクロージャーモジュールと融合することで、リアルタイムの操作を維持しながらOrb-Slam3の精度が著しく向上することを確認しています。
実装、前処理された重み、再現性スクリプトは、https://github.com/shahram95/superpointslam3で入手できます。
要約(オリジナル)
Visual simultaneous localization and mapping (SLAM) must remain accurate under extreme viewpoint, scale and illumination variations. The widely adopted ORB-SLAM3 falters in these regimes because it relies on hand-crafted ORB keypoints. We introduce SuperPoint-SLAM3, a drop-in upgrade that (i) replaces ORB with the self-supervised SuperPoint detector–descriptor, (ii) enforces spatially uniform keypoints via adaptive non-maximal suppression (ANMS), and (iii) integrates a lightweight NetVLAD place-recognition head for learning-based loop closure. On the KITTI Odometry benchmark SuperPoint-SLAM3 reduces mean translational error from 4.15% to 0.34% and mean rotational error from 0.0027 deg/m to 0.0010 deg/m. On the EuRoC MAV dataset it roughly halves both errors across every sequence (e.g., V2\_03: 1.58% -> 0.79%). These gains confirm that fusing modern deep features with a learned loop-closure module markedly improves ORB-SLAM3 accuracy while preserving its real-time operation. Implementation, pretrained weights and reproducibility scripts are available at https://github.com/shahram95/SuperPointSLAM3.
arxiv情報
著者 | Shahram Najam Syed,Ishir Roongta,Kavin Ravie,Gangadhar Nageswar |
発行日 | 2025-06-16 04:27:32+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google