要約
地図ベースの位置特定は、リアルタイムの位置フィードバックを提供するため、ロボットの自律移動にとって非常に重要です。
ただし、既存の VINS および SLAM システムをロボットの制御ループに直接統合することはできません。
VINS は高周波数の位置推定を提供しますが、長期の動作ではドリフトが発生します。
また、SLAM によって出力されたドリフトのない軌道は、因果関係のないループ補正で後処理されます。
実際の制御では、現在の姿勢を将来の情報で更新することは不可能です。
さらに、既存の SLAM 評価システムは、軌道全体を位置合わせした後に精度を測定するため、オドメトリ開始フレームとグランド トゥルース フレーム間の変換誤差が見落とされます。
これらの問題に対処するために、我々は、ロボット制御ループにリアルタイムで因果的かつドリフトのない位置フィードバックを提供する、マルチカム・マルチマップ視覚慣性位置特定システムを提案する。
さらに、地図ベースの位置特定システムのエラー構成を分析し、因果的位置特定のパフォーマンスを測定するのに適した一連の評価指標を提案します。
システムを検証するために、マルチカメラ IMU ハードウェア セットアップを設計し、長期にわたる困難なキャンパス データセットを収集します。
実験結果は、提案されたシステムのより高いリアルタイム位置特定精度を示しています。
コミュニティの発展を促進するために、システムとデータセットの両方がオープンソース https://github.com/zoeylove/Multi-cam-Multi-map-VILO/tree/main になりました。
要約(オリジナル)
Map-based localization is crucial for the autonomous movement of robots as it provides real-time positional feedback. However, existing VINS and SLAM systems cannot be directly integrated into the robot’s control loop. Although VINS offers high-frequency position estimates, it suffers from drift in long-term operation. And the drift-free trajectory output by SLAM is post-processed with loop correction, which is non-causal. In practical control, it is impossible to update the current pose with future information. Furthermore, existing SLAM evaluation systems measure accuracy after aligning the entire trajectory, which overlooks the transformation error between the odometry start frame and the ground truth frame. To address these issues, we propose a multi-cam multi-map visual inertial localization system, which provides real-time, causal and drift-free position feedback to the robot control loop. Additionally, we analyze the error composition of map-based localization systems and propose a set of evaluation metric suitable for measuring causal localization performance. To validate our system, we design a multi-camera IMU hardware setup and collect a long-term challenging campus dataset. Experimental results demonstrate the higher real-time localization accuracy of the proposed system. To foster community development, both the system and the dataset have been made open source https://github.com/zoeylove/Multi-cam-Multi-map-VILO/tree/main.
arxiv情報
著者 | Fuzhang Han,Yufei Wei,Yanmei Jiao,Zhuqing Zhang,Yiyuan Pan,Wenjun Huang,Li Tang,Huan Yin,Xiaqing Ding,Rong Xiong,Yue Wang |
発行日 | 2024-12-05 16:09:27+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google