要約
困難な条件下でも優れたパフォーマンスが約束されているにもかかわらず、イベントベースの動き推定は、イベント ストリームから安定した特徴を抽出して追跡することが難しいため、依然として難しい問題が残っています。
推定を確実にするためには、他のセンサーとの融合が必須であると一般に考えられています。
この研究では、アッカーマンステアリングプラットフォームの制約された非ホロノミック運動モデルを採用することにより、平面地上車両における信頼性の高い純粋にイベントベースの視覚オドメトリを実証します。
通常のフレームベースのカメラの単一特徴の n 線形性を、準時間連続イベント トラックの場合に拡張し、可変次数テイラー展開を介して多項式形式を実現します。
複数のイベント トラックにわたる堅牢な平均化は、ヒストグラム投票によって簡単に実現されます。
シミュレーション データと実際のデータの両方で実証されているように、当社のアルゴリズムは車両の瞬間回転速度の正確かつロバストな推定を達成し、その結果、通常の条件下でフレームベースのセンサーによって取得されるデルタ回転に匹敵する結果が得られます。
さらに、困難な照明シナリオにおいて、従来の代替手段よりも大幅に優れたパフォーマンスを発揮します。
コードは \url{https://github.com/gowanting/NHEVO} で入手できます。
要約(オリジナル)
Despite the promise of superior performance under challenging conditions, event-based motion estimation remains a hard problem owing to the difficulty of extracting and tracking stable features from event streams. In order to robustify the estimation, it is generally believed that fusion with other sensors is a requirement. In this work, we demonstrate reliable, purely event-based visual odometry on planar ground vehicles by employing the constrained non-holonomic motion model of Ackermann steering platforms. We extend single feature n-linearities for regular frame-based cameras to the case of quasi time-continuous event-tracks, and achieve a polynomial form via variable degree Taylor expansions. Robust averaging over multiple event tracks is simply achieved via histogram voting. As demonstrated on both simulated and real data, our algorithm achieves accurate and robust estimates of the vehicle’s instantaneous rotational velocity, and thus results that are comparable to the delta rotations obtained by frame-based sensors under normal conditions. We furthermore significantly outperform the more traditional alternatives in challenging illumination scenarios. The code is available at \url{https://github.com/gowanting/NHEVO}.
arxiv情報
著者 | Wanting Xu,Si’ao Zhang,Li Cui,Xin Peng,Laurent Kneip |
発行日 | 2024-01-17 16:52:20+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google