要約
慣性オドメトリの正確な不確実性推定は、ビジュアルまたは LiDAR 慣性オドメトリなどのマルチセンサー システムで最適な融合を実現するための基盤です。
従来の研究では、固定共分散パラメーターと経験的な IMU センサー モデルを仮定して、慣性測定の不確実性に関する仮定が単純化されていることがよくあります。
ただし、センサー固有の物理的制限と非線形特性を把握するのは困難です。
さらに、不確実性はセンサーの速度や動作モダリティに基づいて変動する可能性があり、異なる IMU 間でばらつきが生じる可能性があります。
これらの課題に対処するために、IMU に固有の非線形性をカプセル化するだけでなく、データ駆動型の方法で共分散の正確な伝播を保証する学習ベースの手法を定式化します。
PyPose ライブラリを拡張して、多様体上の共分散伝播による微分可能なバッチ IMU 統合を可能にし、実行時間の大幅な高速化につながります。
私たちの手法の適応性を実証するために、いくつかのベンチマークと 262 キロメートルを超える大規模なヘリコプター データセットで評価します。
これらのデータセットの慣性オドメトリのドリフト レートは、2.2 ~ 4 分の 1 に減少します。
私たちの手法は、慣性オドメトリーの高度な開発の基礎を築きます。
要約(オリジナル)
Accurate uncertainty estimation for inertial odometry is the foundation to achieve optimal fusion in multi-sensor systems, such as visual or LiDAR inertial odometry. Prior studies often simplify the assumptions regarding the uncertainty of inertial measurements, presuming fixed covariance parameters and empirical IMU sensor models. However, the inherent physical limitations and non-linear characteristics of sensors are difficult to capture. Moreover, uncertainty may fluctuate based on sensor rates and motion modalities, leading to variations across different IMUs. To address these challenges, we formulate a learning-based method that not only encapsulate the non-linearities inherent to IMUs but also ensure the accurate propagation of covariance in a data-driven manner. We extend the PyPose library to enable differentiable batched IMU integration with covariance propagation on manifolds, leading to significant runtime speedup. To demonstrate our method’s adaptability, we evaluate it on several benchmarks as well as a large-scale helicopter dataset spanning over 262 kilometers. The drift rate of the inertial odometry on these datasets is reduced by a factor of between 2.2 and 4 times. Our method lays the groundwork for advanced developments in inertial odometry.
arxiv情報
著者 | Yuheng Qiu,Chen Wang,Xunfei Zhou,Youjie Xia,Sebastian Scherer |
発行日 | 2023-10-12 12:56:33+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google