UCMCTrack: Multi-Object Tracking with Uniform Camera Motion Compensation

要約

ビデオ シーケンスにおけるマルチオブジェクト トラッキング (MOT) は、特にカメラの動きが大きいシナリオでは依然として困難な作業です。
これは、ターゲットが画像面上で大きくドリフトし、誤った追跡結果が生じる可能性があるためです。
このような課題に対処するには、通常、補助的な外観キューまたはカメラ動き補償 (CMC) が必要です。
これらの戦略は効果的ですが、かなりの計算負荷も生じ、リアルタイム MOT に課題をもたらします。
これに応えて、カメラの動きに強い新しいモーション モデル ベースのトラッカーである UCMCTrack を紹介します。
フレームごとに補償パラメータを計算する従来の CMC とは異なり、UCMCTrack はビデオ シーケンス全体にわたって同じ補償パラメータを一貫して適用します。
これは、グランド プレーンにカルマン フィルターを採用し、従来の Intersection over Union (IoU) 距離測定の代替として、Mapped Mahalanobis Distance (MMD) を導入します。
地表面に投影された確率分布を活用することで、私たちのアプローチは運動パターンを効率的に捕捉し、ホモグラフィー投影によって導入される不確実性を適切に管理します。
注目すべきことに、UCMCTrack はモーション キューのみに依存しており、MOT17、MOT20、DanceTrack、KITTI などのさまざまな困難なデータセットにわたって最先端のパフォーマンスを実現します。
詳細とコードは https://github.com/corfyi/UCMCTrack で入手できます。

要約(オリジナル)

Multi-object tracking (MOT) in video sequences remains a challenging task, especially in scenarios with significant camera movements. This is because targets can drift considerably on the image plane, leading to erroneous tracking outcomes. Addressing such challenges typically requires supplementary appearance cues or Camera Motion Compensation (CMC). While these strategies are effective, they also introduce a considerable computational burden, posing challenges for real-time MOT. In response to this, we introduce UCMCTrack, a novel motion model-based tracker robust to camera movements. Unlike conventional CMC that computes compensation parameters frame-by-frame, UCMCTrack consistently applies the same compensation parameters throughout a video sequence. It employs a Kalman filter on the ground plane and introduces the Mapped Mahalanobis Distance (MMD) as an alternative to the traditional Intersection over Union (IoU) distance measure. By leveraging projected probability distributions on the ground plane, our approach efficiently captures motion patterns and adeptly manages uncertainties introduced by homography projections. Remarkably, UCMCTrack, relying solely on motion cues, achieves state-of-the-art performance across a variety of challenging datasets, including MOT17, MOT20, DanceTrack and KITTI. More details and code are available at https://github.com/corfyi/UCMCTrack

arxiv情報

著者 Kefu Yi,Kai Luo,Xiaolei Luo,Jiangui Huang,Hao Wu,Rongdong Hu,Wei Hao
発行日 2024-01-11 14:37:15+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク