MOTRv2: Bootstrapping End-to-End Multi-Object Tracking by Pretrained Object Detectors

要約

タイトル: 事前学習された物体検出器を用いたエンドツーエンドの複数物体追跡をブートストラップするMOTRv2

要約:
– MOTRv2は、事前学習された物体検出器を用いた簡単で効果的なパイプラインを提案し、エンドツーエンドの複数物体追跡をブートストラップする。
– MOTRやTrackFormerなど、既存のエンドツーエンドの手法は、検出性能が低いことが主な理由で、トラッキングバイディテクションの対照的である。
– 他の物体検出器から提案を受け取ることにより、MOTRv2はエクストラな物体検出器をエレガントに組み合わせて改良し、検出優先のMOTRを提供する。
– シンプルな修正により、検出と関連付けタスクの同時学習の間の競合を大幅に緩和する。
– MOTRv2は、クエリ伝搬機能を維持し、大規模ベンチマークで良いスケーリングを示す。

– MOTRv2は、第一回グループダンスチャレンジのダンストラックで1位(HOTA 73.4%)を獲得しました。また、BDD100Kデータセットで最新のパフォーマンスに到達しました。
– この単純かつ効果的なパイプラインがエンドツーエンドMOTコミュニティに新しい洞察を提供できることを願っています。コードは\url{https://github.com/megvii-research/MOTRv2}で利用可能です。

要約(オリジナル)

In this paper, we propose MOTRv2, a simple yet effective pipeline to bootstrap end-to-end multi-object tracking with a pretrained object detector. Existing end-to-end methods, MOTR and TrackFormer are inferior to their tracking-by-detection counterparts mainly due to their poor detection performance. We aim to improve MOTR by elegantly incorporating an extra object detector. We first adopt the anchor formulation of queries and then use an extra object detector to generate proposals as anchors, providing detection prior to MOTR. The simple modification greatly eases the conflict between joint learning detection and association tasks in MOTR. MOTRv2 keeps the query propogation feature and scales well on large-scale benchmarks. MOTRv2 ranks the 1st place (73.4% HOTA on DanceTrack) in the 1st Multiple People Tracking in Group Dance Challenge. Moreover, MOTRv2 reaches state-of-the-art performance on the BDD100K dataset. We hope this simple and effective pipeline can provide some new insights to the end-to-end MOT community. Code is available at \url{https://github.com/megvii-research/MOTRv2}.

arxiv情報

著者 Yuang Zhang,Tiancai Wang,Xiangyu Zhang
発行日 2023-04-19 07:28:54+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CV パーマリンク