When to Extract ReID Features: A Selective Approach for Improved Multiple Object Tracking

要約

Re-Identification (ReID) 特徴の抽出と照合は、多くの最先端 (SOTA) Multiple Object Tracking (MOT) 手法で使用されており、頻繁かつ長期的なオクルージョンに対して特に効果的です。
エンドツーエンドの物体検出と追跡が最近の研究の主な焦点となっていますが、MOT17 や MOT20 などのベンチマークではまだ従来の方法を上回る性能を発揮していません。
したがって、アプリケーションの観点から見ると、検出と埋め込みを個別に行う方法が精度、モジュール性、実装の容易さの点で依然として最良の選択肢ですが、オーバーヘッドがかかるためエッジ デバイスでは実用的ではありません。
このペーパーでは、精度、モジュール性、実装の容易さを維持しながら、特徴抽出のオーバーヘッドを最小限に抑えるための選択的アプローチを調査します。
このアプローチは、さまざまな SOTA メソッドに統合できます。
StrongSORTとDeep OC-SORTに適用してその有効性を実証します。
MOT17、MOT20、および DanceTrack データセットの実験では、私たちのメカニズムが実行時間を大幅に短縮しながら、オクルージョン中の特徴抽出の利点を維持していることが示されています。
さらに、特に DanceTrack でよく見られる変形や外観の類似性の場合など、特徴マッチング段階での混乱を防ぐことで精度が向上します。
https://github.com/emirhanbayar/Fast-StrongSORT、https://github.com/emirhanbayar/Fast-Deep-OC-SORT

要約(オリジナル)

Extracting and matching Re-Identification (ReID) features is used by many state-of-the-art (SOTA) Multiple Object Tracking (MOT) methods, particularly effective against frequent and long-term occlusions. While end-to-end object detection and tracking have been the main focus of recent research, they have yet to outperform traditional methods in benchmarks like MOT17 and MOT20. Thus, from an application standpoint, methods with separate detection and embedding remain the best option for accuracy, modularity, and ease of implementation, though they are impractical for edge devices due to the overhead involved. In this paper, we investigate a selective approach to minimize the overhead of feature extraction while preserving accuracy, modularity, and ease of implementation. This approach can be integrated into various SOTA methods. We demonstrate its effectiveness by applying it to StrongSORT and Deep OC-SORT. Experiments on MOT17, MOT20, and DanceTrack datasets show that our mechanism retains the advantages of feature extraction during occlusions while significantly reducing runtime. Additionally, it improves accuracy by preventing confusion in the feature-matching stage, particularly in cases of deformation and appearance similarity, which are common in DanceTrack. https://github.com/emirhanbayar/Fast-StrongSORT, https://github.com/emirhanbayar/Fast-Deep-OC-SORT

arxiv情報

著者 Emirhan Bayar,Cemal Aker
発行日 2024-09-10 16:14:46+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク