Direct Sparse Odometry with Continuous 3D Gaussian Maps for Indoor Environments

要約

正確なローカリゼーションは、自律ナビゲーションなどのロボット工学および拡張現実アプリケーションに不可欠です。
以前のマップを組み合わせたビジョンベースの方法は、LIDARレベルの精度をカメラコスト効率と堅牢なポーズ推定を統合することを目的としています。
ただし、既存のアプローチは、離散ポイントクラウドマップを密な画像ピクセルに関連付ける場合、信頼性の低い補間手順に依存します。
連続した3Dガウスマップを使用して、単眼の視覚臭気フレームワークを提案します。これは、補間なしで抽出されたすべての高勾配ポイントに幾何学的に一貫した深さ値を直接割り当てます。
2つのパブリックデータセットの評価は、既存の方法と比較して優れた追跡精度を示しています。
コミュニティの開発のために、この作業のソースコードをリリースしました。

要約(オリジナル)

Accurate localization is essential for robotics and augmented reality applications such as autonomous navigation. Vision-based methods combining prior maps aim to integrate LiDAR-level accuracy with camera cost efficiency for robust pose estimation. Existing approaches, however, often depend on unreliable interpolation procedures when associating discrete point cloud maps with dense image pixels, which inevitably introduces depth errors and degrades pose estimation accuracy. We propose a monocular visual odometry framework utilizing a continuous 3D Gaussian map, which directly assigns geometrically consistent depth values to all extracted high-gradient points without interpolation. Evaluations on two public datasets demonstrate superior tracking accuracy compared to existing methods. We have released the source code of this work for the development of the community.

arxiv情報

著者 Jie Deng,Fengtian Lang,Zikang Yuan,Xin Yang
発行日 2025-03-05 10:49:28+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク