Event-based Visual Tracking in Dynamic Environments

要約

動きや光の厳しい条件下での視覚オブジェクトの追跡は、従来のカメラの機能によって妨げられる可能性があり、モーション ブラーを含む画像を生成する傾向があります。
イベント カメラは、これらの条件下でビジョン タスクを確実に実行するのに適した新しいセンサーです。
ただし、出力の性質上、オブジェクトの検出と追跡に適用することは簡単ではありません。
この作業では、イベント カメラと既製の深層学習の両方をオブジェクト トラッキングに利用するためのフレームワークを提案します。
イベントデータを強度フレームに再構築すると、従来のカメラでは許容できる結果が得られない状況で追跡パフォーマンスが向上することを示します。

要約(オリジナル)

Visual object tracking under challenging conditions of motion and light can be hindered by the capabilities of conventional cameras, prone to producing images with motion blur. Event cameras are novel sensors suited to robustly perform vision tasks under these conditions. However, due to the nature of their output, applying them to object detection and tracking is non-trivial. In this work, we propose a framework to take advantage of both event cameras and off-the-shelf deep learning for object tracking. We show that reconstructing event data into intensity frames improves the tracking performance in conditions under which conventional cameras fail to provide acceptable results.

arxiv情報

著者 Irene Perez-Salesa,Rodrigo Aldana-Lopez,Carlos Sagues
発行日 2022-12-15 12:18:13+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク