Asynchronous Blob Tracker for Event Cameras

要約

イベントベースのカメラは、時間分解能が高く、遅延が少なく、ダイナミック レンジが高いため、高速で移動するオブジェクトの追跡によく使用されます。
この論文では、生のイベントをリアルタイムで非同期に使用してイベント BLOB を追跡するための新しいアルゴリズムを提案します。
条件付き空間尤度がブロブ状であるイベント発生の時空間尤度として、イベント ブロブの概念を導入します。
車のヘッドライトや高速で移動する前景オブジェクトなどの現実世界のオブジェクトの多くは、イベント BLOB データを生成します。
提案されたアルゴリズムは、拡張カルマン フィルターと結合されたデータ関連付けの動的なしきい値基準を備えた最近傍分類器を使用して、イベント BLOB の状態を追跡します。
当社のアルゴリズムは、厳しい照明条件や高速動作 (> 11000 ピクセル/秒) の下でも、高精度のブロブ追跡、速度推定、および形状推定を実現します。
達成されたマイクロ秒の時間分解能は、フィルタ出力を使用して接触時間や距離推定などの二次情報を導き出すことができることを意味し、自動運転における衝突回避などの現実世界の問題への応用が可能になります。

要約(オリジナル)

Event-based cameras are popular for tracking fast-moving objects due to their high temporal resolution, low latency, and high dynamic range. In this paper, we propose a novel algorithm for tracking event blobs using raw events asynchronously in real time. We introduce the concept of an event blob as a spatio-temporal likelihood of event occurrence where the conditional spatial likelihood is blob-like. Many real-world objects such as car headlights or any quickly moving foreground objects generate event blob data. The proposed algorithm uses a nearest neighbour classifier with a dynamic threshold criteria for data association coupled with an extended Kalman filter to track the event blob state. Our algorithm achieves highly accurate blob tracking, velocity estimation, and shape estimation even under challenging lighting conditions and high-speed motions (> 11000 pixels/s). The microsecond time resolution achieved means that the filter output can be used to derive secondary information such as time-to-contact or range estimation, that will enable applications to real-world problems such as collision avoidance in autonomous driving.

arxiv情報

著者 Ziwei Wang,Timothy Molloy,Pieter van Goor,Robert Mahony
発行日 2024-09-04 01:13:40+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク