要約
このホワイト ペーパーでは、MOTRv2 を提案します。MOTRv2 は、事前トレーニング済みのオブジェクト検出器を使用して、エンドツーエンドのマルチオブジェクト トラッキングをブートストラップするためのシンプルで効果的なパイプラインです。
既存のエンドツーエンドの方法。
MOTR と TrackFormer は、主に検出性能が低いため、検出による追跡に比べて劣っています。
追加のオブジェクト検出器をエレガントに組み込むことで、MOTR を改善することを目指しています。
最初にクエリのアンカー定式化を採用し、追加のオブジェクト検出器を使用して提案をアンカーとして生成し、MOTR の前に検出を提供します。
単純な変更により、MOTR における共同学習検出と関連付けタスクの間の競合が大幅に緩和されます。
MOTRv2 はエンドツーエンドの機能を維持し、大規模なベンチマークで適切にスケーリングします。
MOTRv2 は、1st Multiple People Tracking in Group Dance Challenge で 1 位 (DanceTrack で 73.4% HOTA) にランクされました。
さらに、MOTRv2 は BDD100K データセットで最先端のパフォーマンスを実現します。
このシンプルで効果的なパイプラインが、エンドツーエンドの MOT コミュニティに新しい洞察を提供できることを願っています。
コードは \url{https://github.com/megvii-research/MOTRv2} で入手できます。
要約(オリジナル)
In this paper, we propose MOTRv2, a simple yet effective pipeline to bootstrap end-to-end multi-object tracking with a pretrained object detector. Existing end-to-end methods, e.g. MOTR and TrackFormer, are inferior to their tracking-by-detection counterparts mainly due to their poor detection performance. We aim to improve MOTR by elegantly incorporating an extra object detector. We first adopt the anchor formulation of queries and then use an extra object detector to generate proposals as anchors, providing detection prior to MOTR. The simple modification greatly eases the conflict between joint learning detection and association tasks in MOTR. MOTRv2 keeps the end-to-end feature and scales well on large-scale benchmarks. MOTRv2 ranks the 1st place (73.4% HOTA on DanceTrack) in the 1st Multiple People Tracking in Group Dance Challenge. Moreover, MOTRv2 achieves state-of-the-art performance on BDD100K dataset. We hope this simple and effective pipeline can provide some new insights to the end-to-end MOT community. Code is available at \url{https://github.com/megvii-research/MOTRv2}.
arxiv情報
著者 | Yuang Zhang,Tiancai Wang,Xiangyu Zhang |
発行日 | 2022-11-17 18:57:12+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google