MCVO: A Generic Visual Odometry for Arbitrarily Arranged Multi-Cameras

要約

マルチカメラビジュアルスラムシステムをセットアップしやすく、環境により堅牢にすることは、ビジョンロボットにとって魅力的です。
既存の単眼視および両眼視視力系スラムシステムは、狭いセンシングフィールドオブビュー(FOV)を備えており、テクステックのない環境での精度と限られた堅牢性をもたらします。
したがって、マルチカメラスラムシステムは、より広いFOVで冗長性を提供できるため、注目を集めています。
ただし、複数のカメラの通常の任意の配置と向きにより、ポーズスケールの推定とシステムの更新が困難になります。
これらの問題に対処するために、カメラの配置に高い柔軟性を備えたメトリックスケールの状態推定を実現できるMCVO、つまりMCVO、つまりMCVOのための堅牢にバンドルバンドルバンドルされたマルチカメラのための堅牢な視覚臭トメトリシステムを提案します。
具体的には、最初に学習ベースの機能追跡フレームワークを設計して、複数のビデオストリームのCPU処理の圧力をGPUにシフトします。
次に、移動カメラ間の剛性の制約の下で、メトリックスケールのポーズを使用してodometryシステムを初期化します。
最後に、バックエンドでマルチカメラの特徴を融合して、堅牢なポーズ推定とオンラインスケールの最適化を実現します。
さらに、マルチカメラ機能は、ポーズグラフの最適化のループ検出を改善するのに役立ちます。
Kitti-360およびMulticamdataデータセットでの実験では、任意に配置されたカメラよりも堅牢性が検証されます。
他のステレオおよびマルチカメラビジュアルスラムシステムと比較して、この方法では、より良い一般化能力を備えたより高いポーズ精度が得られます。
当社のコードとオンラインデモは、https://github.com/junhaowang615/mcvoで入手できます

要約(オリジナル)

Making multi-camera visual SLAM systems easier to set up and more robust to the environment is attractive for vision robots. Existing monocular and binocular vision SLAM systems have narrow sensing Field-of-View (FoV), resulting in degenerated accuracy and limited robustness in textureless environments. Thus multi-camera SLAM systems are gaining attention because they can provide redundancy with much wider FoV. However, the usual arbitrary placement and orientation of multiple cameras make the pose scale estimation and system updating challenging. To address these problems, we propose a robust visual odometry system for rigidly-bundled arbitrarily-arranged multi-cameras, namely MCVO, which can achieve metric-scale state estimation with high flexibility in the cameras’ arrangement. Specifically, we first design a learning-based feature tracking framework to shift the pressure of CPU processing of multiple video streams to GPU. Then we initialize the odometry system with the metric-scale poses under the rigid constraints between moving cameras. Finally, we fuse the features of the multi-cameras in the back-end to achieve robust pose estimation and online scale optimization. Additionally, multi-camera features help improve the loop detection for pose graph optimization. Experiments on KITTI-360 and MultiCamData datasets validate its robustness over arbitrarily arranged cameras. Compared with other stereo and multi-camera visual SLAM systems, our method obtains higher pose accuracy with better generalization ability. Our codes and online demos are available at https://github.com/JunhaoWang615/MCVO

arxiv情報

著者 Huai Yu,Junhao Wang,Yao He,Wen Yang,Gui-Song Xia
発行日 2025-03-25 08:52:12+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク