Tight Fusion of Events and Inertial Measurements for Direct Velocity Estimation

要約

従来の視覚慣性状態推定は、絶対的なカメラのポーズと空間的ランドマークの位置を対象としていますが、一次運動学は通常、暗黙的に推定されたサブ状態として解決されます。
ただし、運動学の推定の品質は絶対カメラとランドマーク座標の推定の安定性に依存するため、これは速度ベースの制御シナリオではリスクを引き起こします。
この問題に対処するために、通常のカメラの代わりにダイナミック ビジョン センサーを使用することで、一次運動学のレベルで直接視覚と慣性の緊密な融合を実現する新しいソリューションを提案します。
より具体的には、三焦点テンソル ジオメトリを活用して、イベントとカメラ速度に直接依存する入射関係を確立し、非常に動的な状況での速度推定値が短い時間間隔でどのように取得できるかを実証します。
ノイズと外れ値は、入れ子になった 2 層の RANSAC スキームを使用して処理されます。
さらに、スライディング ウィンドウ オプティマイザーを使用して、事前に統合された慣性信号との緊密な融合により、滑らかな速度信号が得られます。
シミュレートされたデータと実際のデータの両方での実験は、提案された緊密なイベント慣性融合が、絶対座標とは独立して、高度に動的なシナリオにおいて連続的で信頼性の高い速度推定につながることを実証しています。
さらに、極端な場合には、従来の点位置ベースの視覚慣性オドメトリよりも、より安定して正確な運動学推定を実現します。

要約(オリジナル)

Traditional visual-inertial state estimation targets absolute camera poses and spatial landmark locations while first-order kinematics are typically resolved as an implicitly estimated sub-state. However, this poses a risk in velocity-based control scenarios, as the quality of the estimation of kinematics depends on the stability of absolute camera and landmark coordinates estimation. To address this issue, we propose a novel solution to tight visual-inertial fusion directly at the level of first-order kinematics by employing a dynamic vision sensor instead of a normal camera. More specifically, we leverage trifocal tensor geometry to establish an incidence relation that directly depends on events and camera velocity, and demonstrate how velocity estimates in highly dynamic situations can be obtained over short time intervals. Noise and outliers are dealt with using a nested two-layer RANSAC scheme. Additionally, smooth velocity signals are obtained from a tight fusion with pre-integrated inertial signals using a sliding window optimizer. Experiments on both simulated and real data demonstrate that the proposed tight event-inertial fusion leads to continuous and reliable velocity estimation in highly dynamic scenarios independently of absolute coordinates. Furthermore, in extreme cases, it achieves more stable and more accurate estimation of kinematics than traditional, point-position-based visual-inertial odometry.

arxiv情報

著者 Wanting Xu,Xin Peng,Laurent Kneip
発行日 2024-01-17 15:56:57+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO パーマリンク