Exploring Event Camera-based Odometry for Planetary Robots

要約

イベントカメラは、モーションブラーに対する耐性と、低照度および高ダイナミックレンジ条件での高い堅牢性により、将来の火星ヘリコプターミッションでのビジョンベースの探査を可能にするセンサーになる準備ができています.
ただし、既存のイベントベースの視覚慣性オドメトリ (VIO) アルゴリズムは、トラッキングの予期せぬ損失やその他の影響によって引き起こされる重大な深度の不確実性に対処できないため、トラッキング エラーが大きくなるか脆弱になります。
この作業では、最先端のイベントベースのフロントエンドとフィルターベースのバックエンドを組み合わせることで、両方の制限に対処する EKLT-VIO を紹介します。
これにより、不確実性に対して正確かつ堅牢になり、困難なベンチマークでイベントベースおよびフレームベースの VIO アルゴリズムを 32% 上回っています。
さらに、ホバーのような条件での正確なパフォーマンス (既存のイベントベースの方法よりも優れている) と、既存のフレームベースの方法が失敗する、新しく収集された火星のような高ダイナミック レンジ シーケンスでの高いロバスト性を示します。
そうすることで、イベントベースの VIO が火星でのビジョンベースの探査への道であることを示しています。

要約(オリジナル)

Due to their resilience to motion blur and high robustness in low-light and high dynamic range conditions, event cameras are poised to become enabling sensors for vision-based exploration on future Mars helicopter missions. However, existing event-based visual-inertial odometry (VIO) algorithms either suffer from high tracking errors or are brittle, since they cannot cope with significant depth uncertainties caused by an unforeseen loss of tracking or other effects. In this work, we introduce EKLT-VIO, which addresses both limitations by combining a state-of-the-art event-based frontend with a filter-based backend. This makes it both accurate and robust to uncertainties, outperforming event- and frame-based VIO algorithms on challenging benchmarks by 32%. In addition, we demonstrate accurate performance in hover-like conditions (outperforming existing event-based methods) as well as high robustness in newly collected Mars-like and high-dynamic-range sequences, where existing frame-based methods fail. In doing so, we show that event-based VIO is the way forward for vision-based exploration on Mars.

arxiv情報

著者 Florian Mahlknecht,Daniel Gehrig,Jeremy Nash,Friedrich M. Rockenbauer,Benjamin Morrell,Jeff Delaune,Davide Scaramuzza
発行日 2022-07-29 14:26:36+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO パーマリンク