DIVOTrack: A Novel Dataset and Baseline Method for Cross-View Multi-Object Tracking in DIVerse Open Scenes

要約

クロスビュー マルチオブジェクト トラッキングは、フレームとカメラ ビューの間でオブジェクトを実質的にオーバーラップさせてリンクすることを目的としています。
クロスビュー マルチオブジェクト トラッキングは近年ますます注目を集めていますが、既存のデータセットには、1) 現実世界のシナリオの欠落、2) 多様なシーンの欠如、3) 所有するトラックの数が限られている、4) を含むいくつかの問題がまだあります。
静的カメラのみ、および 5) 標準的なベンチマークがないため、クロスビュー追跡方法の調査と比較が妨げられています。
前述の問題を解決するために、DIVOTrack を導入します。これは、現実的で非実験的な環境で歩行者を密集して追跡する DIVerse Open シーン用の新しいクロスビュー マルチオブジェクト トラッキング データセットです。
当社の DIVOTrack には、10 の異なるシナリオと 550 のクロスビュー トラックがあり、現在利用可能なすべてのクロスビュー マルチオブジェクト トラッキング データセットを上回っています。
さらに、CrossMOT という名前の統合されたジョイント検出およびクロスビュー追跡フレームワークを使用した新しいベースライン クロスビュー追跡方法を提供します。これは、オールインワンの埋め込みモデルを使用して、オブジェクト検出、単一ビューの関連付け、およびクロスビュー マッチングを学習します。
.
最後に、現在の方法論の概要と DIVOTrack を使用した一連の標準ベンチマークを提示して、現在のアプローチと提案された CrossMOT の公正な比較と包括的な分析を行います。
データセットとコードは、https://github.com/shengyuhao/DIVOTrack で入手できます。

要約(オリジナル)

Cross-view multi-object tracking aims to link objects between frames and camera views with substantial overlaps. Although cross-view multi-object tracking has received increased attention in recent years, existing datasets still have several issues, including 1) missing real-world scenarios, 2) lacking diverse scenes, 3) owning a limited number of tracks, 4) comprising only static cameras, and 5) lacking standard benchmarks, which hinder the investigation and comparison of cross-view tracking methods. To solve the aforementioned issues, we introduce DIVOTrack: a new cross-view multi-object tracking dataset for DIVerse Open scenes with dense tracking pedestrians in realistic and non-experimental environments. Our DIVOTrack has ten distinct scenarios and 550 cross-view tracks, surpassing all cross-view multi-object tracking datasets currently available. Furthermore, we provide a novel baseline cross-view tracking method with a unified joint detection and cross-view tracking framework named CrossMOT, which learns object detection, single-view association, and cross-view matching with an all-in-one embedding model. Finally, we present a summary of current methodologies and a set of standard benchmarks with our DIVOTrack to provide a fair comparison and conduct a comprehensive analysis of current approaches and our proposed CrossMOT. The dataset and code are available at https://github.com/shengyuhao/DIVOTrack.

arxiv情報

著者 Shenghao Hao,Peiyuan Liu,Yibing Zhan,Kaixun Jin,Zuozhu Liu,Mingli Song,Jenq-Neng Hwang,Gaoang Wang
発行日 2023-02-15 14:10:42+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク