Handling Heavy Occlusion in Dense Crowd Tracking by Focusing on the Heads

要約

タイトル:「人込みの重い遮蔽物を扱うための頭部に焦点を当てた密集した人込み追跡」

要約:
– 深層学習の急速な発展とともに、物体検出と追跡は現代社会において重要な役割を果たしている。
– 人込みの密集したシーンですべての歩行者を識別して追跡する能力は、コンピュータビジョンのアプローチにおいて典型的な課題であり、Multiple Object Tracking(MOT)チャレンジとしても知られている。
– MOT20チャレンジの結果によると、歩行者はMOT17チャレンジの4倍密集している。
– 人体の遮蔽問題に鑑み、頭部は通常識別しやすいため、本研究ではアンカーフリースタイルの共同ヘッド・ボディ検出器を設計し、小・中サイズの歩行者の検出再現率と精度を向上させることを目的としている。
– 创造的に、提案モデルは、一般的な歩行者検出のための統計的な頭身比情報をトレーニングに必要としない。代わりに、提案されたモデルは動的に比率を学習する。
– 提案されたモデルの有効性を検証するため、MOT20、Crowdhuman、HT21などの異なるデータセットで大規模な実験を行い、小・中サイズの歩行者の再現率と精度の両方を大幅に改善し、これらの難しいデータセットで最先端の結果を達成した。

要約(オリジナル)

With the rapid development of deep learning, object detection and tracking play a vital role in today’s society. Being able to identify and track all the pedestrians in the dense crowd scene with computer vision approaches is a typical challenge in this field, also known as the Multiple Object Tracking (MOT) challenge. Modern trackers are required to operate on more and more complicated scenes. According to the MOT20 challenge result, the pedestrian is 4 times denser than the MOT17 challenge. Hence, improving the ability to detect and track in extremely crowded scenes is the aim of this work. In light of the occlusion issue with the human body, the heads are usually easier to identify. In this work, we have designed a joint head and body detector in an anchor-free style to boost the detection recall and precision performance of pedestrians in both small and medium sizes. Innovatively, our model does not require information on the statistical head-body ratio for common pedestrians detection for training. Instead, the proposed model learns the ratio dynamically. To verify the effectiveness of the proposed model, we evaluate the model with extensive experiments on different datasets, including MOT20, Crowdhuman, and HT21 datasets. As a result, our proposed method significantly improves both the recall and precision rate on small & medium sized pedestrians and achieves state-of-the-art results in these challenging datasets.

arxiv情報

著者 Yu Zhang,Huaming Chen,Wei Bao,Zhongzheng Lai,Zao Zhang,Dong Yuan
発行日 2023-04-27 05:08:33+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CV パーマリンク