要約
イベントベースのカメラは、シーン内の個々の視覚的な変化を非同期的にキャプチャします。
これにより、従来のフレームベースのカメラよりも、非常に動的な動きや不十分な照明に対して堅牢になります。
これは、シーン内のすべての測定が固有の時間に発生する可能性があることも意味します。
これらの異なる測定時間を処理することは、イベントベースのカメラを使用する場合の大きな課題です。
これは、ビジュアル オドメトリ (VO) パイプラインで、時間的に近い測定値を 1 つの共通の時間に発生したものとして近似することによって対処されることがよくあります。
このグループ化により推定の問題は単純化されますが、追加のセンサーがないと、イベントベースのカメラの固有の時間解像度が犠牲になります。
この論文では、代わりに、推定状態でのグループ化や近似を必要とせずに、個々のイベント測定時間を直接推定する完全なステレオ VO パイプラインを紹介します。
連続時間軌跡推定を使用して、物理的に動機付けられた事前分布を使用したガウス過程回帰を通じて、イベントベースのカメラの時間的忠実性と非同期性を維持します。
そのパフォーマンスは MVSEC データセットで評価され、2 つの独立したシーケンスで 7.9e-3 および 5.9e-3 RMS 相対誤差を達成し、既存の公的に利用可能なイベントベースのステレオ VO パイプラインをそれぞれ 2 倍および 4 倍上回っています。
要約(オリジナル)
Event-based cameras asynchronously capture individual visual changes in a scene. This makes them more robust than traditional frame-based cameras to highly dynamic motions and poor illumination. It also means that every measurement in a scene can occur at a unique time. Handling these different measurement times is a major challenge of using event-based cameras. It is often addressed in visual odometry (VO) pipelines by approximating temporally close measurements as occurring at one common time. This grouping simplifies the estimation problem but, absent additional sensors, sacrifices the inherent temporal resolution of event-based cameras. This paper instead presents a complete stereo VO pipeline that estimates directly with individual event-measurement times without requiring any grouping or approximation in the estimation state. It uses continuous-time trajectory estimation to maintain the temporal fidelity and asynchronous nature of event-based cameras through Gaussian process regression with a physically motivated prior. Its performance is evaluated on the MVSEC dataset, where it achieves 7.9e-3 and 5.9e-3 RMS relative error on two independent sequences, outperforming the existing publicly available event-based stereo VO pipeline by two and four times, respectively.
arxiv情報
著者 | Jianeng Wang,Jonathan D. Gammell |
発行日 | 2023-07-26 15:58:35+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google