要約
ギガピクセル シナリオでの追跡には、ビデオ監視や歩行者分析において多くの潜在的なアプリケーションが含まれています。
既存のアルゴリズムは、複数のカメラまたはグループ関係を利用して、混雑したシーンで追跡を実行しようとします。
ただし、ギガピクセル画像に固有の複雑な相互作用やオクルージョンに直面すると、パフォーマンスが大幅に低下します。
このペーパーでは、混雑したシーンでのギガピクセル追跡の課題に対処するために設計された動的追跡フレームワークである DynamicTrack を紹介します。
特に、歩行者の頭と体を共同検出するために対照学習を利用する動的検出器を提案します。
これに基づいて、照合目的で頭と体の情報を効果的に利用する動的関連付けアルゴリズムを設計します。
広範な実験により、当社のトラッカーは、ギガピクセルの混雑したシーン向けに特別に設計された、広く使用されているトラッキング ベンチマークで最先端のパフォーマンスを達成できることが示されています。
要約(オリジナル)
Tracking in gigapixel scenarios holds numerous potential applications in video surveillance and pedestrian analysis. Existing algorithms attempt to perform tracking in crowded scenes by utilizing multiple cameras or group relationships. However, their performance significantly degrades when confronted with complex interaction and occlusion inherent in gigapixel images. In this paper, we introduce DynamicTrack, a dynamic tracking framework designed to address gigapixel tracking challenges in crowded scenes. In particular, we propose a dynamic detector that utilizes contrastive learning to jointly detect the head and body of pedestrians. Building upon this, we design a dynamic association algorithm that effectively utilizes head and body information for matching purposes. Extensive experiments show that our tracker achieves state-of-the-art performance on widely used tracking benchmarks specifically designed for gigapixel crowded scenes.
arxiv情報
著者 | Yunqi Zhao,Yuchen Guo,Zheng Cao,Kai Ni,Ruqi Huang,Lu Fang |
発行日 | 2024-07-26 10:08:01+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google