CountingMOT: Joint Counting, Detection and Re-Identification for Multiple Object Tracking

要約

複数オブジェクト追跡 (MOT) の最近の傾向は、検出と追跡を共同で解決することです。この場合、オブジェクトの検出と外観の特徴 (または動き) が同時に学習されます。
競争力のあるパフォーマンスにもかかわらず、混雑したシーンでは、ジョイントの検出と追跡は通常、検出の見逃しや誤検出により、正確なオブジェクトの関連付けを見つけることができません。
このホワイトペーパーでは、混雑したシーン向けに調整された、CountingMOT という名前のエンドツーエンドのフレームワークで、カウント、検出、および再識別を共同でモデル化します。
検出とカウントの間にオブジェクト数の相互制約を課すことにより、CountingMOT は、オブジェクト検出と群衆密度マップ推定の間のバランスを見つけようとします。これは、見逃した検出を回復したり、誤検出を拒否したりするのに役立ちます。
私たちのアプローチは、オブジェクトの検出、カウント、および再識別のギャップを埋める試みです。
これは、群衆の密度を無視するため、混雑したシーンで失敗する傾向があるか、ローカル相関に依存してターゲットを一致させるためのグラフィカルな関係を構築する従来の MOT メソッドとは対照的です。
提案された MOT トラッカーは、オンラインおよびリアルタイムの追跡を実行でき、公開ベンチマーク MOT16 (77.6 の MOTA)、MOT17 (78.0% の MOTA)、および MOT20 (70.2% の MOTA) で最先端の結果を達成します。

要約(オリジナル)

The recent trend in multiple object tracking (MOT) is jointly solving detection and tracking, where object detection and appearance feature (or motion) are learned simultaneously. Despite competitive performance, in crowded scenes, joint detection and tracking usually fail to find accurate object associations due to missed or false detections. In this paper, we jointly model counting, detection and re-identification in an end-to-end framework, named CountingMOT, tailored for crowded scenes. By imposing mutual object-count constraints between detection and counting, the CountingMOT tries to find a balance between object detection and crowd density map estimation, which can help it to recover missed detections or reject false detections. Our approach is an attempt to bridge the gap of object detection, counting, and re-Identification. This is in contrast to prior MOT methods that either ignore the crowd density and thus are prone to failure in crowded scenes, or depend on local correlations to build a graphical relationship for matching targets. The proposed MOT tracker can perform online and real-time tracking, and achieves the state-of-the-art results on public benchmarks MOT16 (MOTA of 77.6), MOT17 (MOTA of 78.0%) and MOT20 (MOTA of 70.2%).

arxiv情報

著者 Weihong Ren,Bowen Chen,Yuhang Shi,Weibo Jiang,Honghai Liu
発行日 2022-12-12 12:53:58+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク