要約
本論文では、マルチ視覚慣性システム(MVIS)の状態推定を研究し、任意の数の非同期慣性計測ユニット(IMU)またはジャイロスコープと、グローバルシャッターおよび(または)ローリングシャッターカメラを最適に融合するセンサ融合アルゴリズムを開発する。特に、IMUやカメラの内部特性、IMU-IMU(またはカメラ)の時空間的な外部特性、およびローリングシャッターカメラ(使用されている場合)の画像読み出し時間を含む、関連する視覚慣性センサの完全な較正に関心があります。この目的のために、我々は、IMU計測を事前統合するために、ACI3と呼ばれる、新しい解析的なIMU統合とイントリシクスの組み合わせを開発し、ベースIMUと一緒に補助IMUと(または)ジャイロスコープを融合するために活用します。また、IMU-IMU剛体拘束を利用して補助的な慣性ポーズの必要性を排除し、計算の複雑さを軽減します。MVISの観測可能性解析を行うことで、標準的な4つの観測不可能な方向は、慣性センサがいくつ使用されても変わらないことを証明し、また、IMU-IMUの時空間的な外部インシフィックスと補助的な慣性インシフィックスの縮退した運動を初めて特定した。我々の解析とアルゴリズムを検証する広範なシミュレーションに加えて、我々は独自のMVISセンサリグを構築し、Kalibrのような最先端の校正手法に対して提案する校正を実験的に検証するために25以上の実世界のデータセットを収集した。我々は、提案するMVIS校正が、収束性と再現性を改善し、競合する精度を達成できることを示す。
要約(オリジナル)
In this paper, we study state estimation of multi-visual-inertial systems (MVIS) and develop sensor fusion algorithms to optimally fuse an arbitrary number of asynchronous inertial measurement units (IMUs) or gyroscopes and global and(or) rolling shutter cameras. We are especially interested in the full calibration of the associated visual-inertial sensors, including the IMU or camera intrinsics and the IMU-IMU(or camera) spatiotemporal extrinsics as well as the image readout time of rolling-shutter cameras (if used). To this end, we develop a new analytic combined IMU integration with intrinsics-termed ACI3-to preintegrate IMU measurements, which is leveraged to fuse auxiliary IMUs and(or) gyroscopes alongside a base IMU. We model the multi-inertial measurements to include all the necessary inertial intrinsic and IMU-IMU spatiotemporal extrinsic parameters, while leveraging IMU-IMU rigid-body constraints to eliminate the necessity of auxiliary inertial poses and thus reducing computational complexity. By performing observability analysis of MVIS, we prove that the standard four unobservable directions remain – no matter how many inertial sensors are used, and also identify, for the first time, degenerate motions for IMU-IMU spatiotemporal extrinsics and auxiliary inertial intrinsics. In addition to the extensive simulations that validate our analysis and algorithms, we have built our own MVIS sensor rig and collected over 25 real-world datasets to experimentally verify the proposed calibration against the state-of-the-art calibration method such as Kalibr. We show that the proposed MVIS calibration is able to achieve competing accuracy with improved convergence and repeatability, which is open sourced to better benefit the community.
arxiv情報
著者 | Yulin Yang,Patrick Geneva,Guoquan Huang |
発行日 | 2024-09-02 19:49:06+00:00 |
arxivサイト | arxiv_id(pdf) |