要約
多くのマルチオブジェクト追跡 (MOT) アプローチは、モーション情報を利用して、フレーム全体で検出されたすべてのオブジェクトを関連付けます。
ただし、カルマン フィルターなどのフィルター ベースのアルゴリズムに依存する多くの方法は、多くの場合、線形運動のシナリオではうまく機能しますが、複雑で非線形の運動をしているオブジェクトの位置を正確に予測するのは困難です。
これらのシナリオに取り組むために、強化された時間動き予測器である ETTrack を使用した動きベースの MOT アプローチを提案します。
具体的には、動き予測器は、トランスフォーマー モデルと時間畳み込みネットワーク (TCN) を統合して、短期および長期の動きパターンをキャプチャし、過去の動き情報に基づいて個々のオブジェクトの将来の動きを予測します。
さらに、トレーニング中のオブジェクトの運動方向に関する追加情報を提供する新しい運動量補正損失関数を提案します。
これにより、動き予測機能が動きの変化に迅速に適応し、将来の動きをより正確に予測できるようになります。
私たちの実験結果は、ETTrack が DanceTrack と SportsMOT の最先端のトラッカーと比較して競争力のあるパフォーマンスを達成し、HOTA メトリクスでそれぞれ 56.4% と 74.4% のスコアを獲得したことを示しています。
要約(オリジナル)
Many Multi-Object Tracking (MOT) approaches exploit motion information to associate all the detected objects across frames. However, many methods that rely on filtering-based algorithms, such as the Kalman Filter, often work well in linear motion scenarios but struggle to accurately predict the locations of objects undergoing complex and non-linear movements. To tackle these scenarios, we propose a motion-based MOT approach with an enhanced temporal motion predictor, ETTrack. Specifically, the motion predictor integrates a transformer model and a Temporal Convolutional Network (TCN) to capture short-term and long-term motion patterns, and it predicts the future motion of individual objects based on the historical motion information. Additionally, we propose a novel Momentum Correction Loss function that provides additional information regarding the motion direction of objects during training. This allows the motion predictor rapidly adapt to motion variations and more accurately predict future motion. Our experimental results demonstrate that ETTrack achieves a competitive performance compared with state-of-the-art trackers on DanceTrack and SportsMOT, scoring 56.4% and 74.4% in HOTA metrics, respectively.
arxiv情報
著者 | Xudong Han,Nobuyuki Oishi,Yueying Tian,Elif Ucurum,Rupert Young,Chris Chatwin,Philip Birch |
発行日 | 2024-05-24 17:51:33+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google