PANet: Perspective-Aware Network with Dynamic Receptive Fields and Self-Distilling Supervision for Crowd Counting

要約

群衆カウントは、群衆密度分布を学習し、画像内のオブジェクト (人など) の数を推定することを目的としています。
データ ポイントの分布に大きな影響を与える遠近効果は、群集のカウントにおいて重要な役割を果たします。
この論文では、パースペクティブの問題に対処するために、PANet と呼ばれる新しいパースペクティブ認識アプローチを提案します。
オブジェクトのサイズは、遠近効果により 1 つの画像内で大きく変化するという観察に基づいて、動的受容野 (DRF) フレームワークを提案します。
このフレームワークは、入力画像に応じて拡張された畳み込みパラメーターによって受容野を調整することができます。これは、モデルが各局所領域に対してより識別可能な特徴を抽出するのに役立ちます。
教師付き情報として密度マップを生成するためにガウス カーネルを使用するほとんどの以前の研究とは異なり、自己蒸留監視 (SDS) トレーニング方法を提案します。
グラウンド トゥルース密度マップは最初のトレーニング ステージから洗練され、パースペクティブ情報は 2 番目のステージでモデルに抽出されます。
ShanghaiTech Part_A および Part_B、UCF_QNRF、および UCF_CC_50 データセットに関する実験結果は、提案された PANet が最先端の方法よりも大幅に優れていることを示しています。

要約(オリジナル)

Crowd counting aims to learn the crowd density distributions and estimate the number of objects (e.g. persons) in images. The perspective effect, which significantly influences the distribution of data points, plays an important role in crowd counting. In this paper, we propose a novel perspective-aware approach called PANet to address the perspective problem. Based on the observation that the size of the objects varies greatly in one image due to the perspective effect, we propose the dynamic receptive fields (DRF) framework. The framework is able to adjust the receptive field by the dilated convolution parameters according to the input image, which helps the model to extract more discriminative features for each local region. Different from most previous works which use Gaussian kernels to generate the density map as the supervised information, we propose the self-distilling supervision (SDS) training method. The ground-truth density maps are refined from the first training stage and the perspective information is distilled to the model in the second stage. The experimental results on ShanghaiTech Part_A and Part_B, UCF_QNRF, and UCF_CC_50 datasets demonstrate that our proposed PANet outperforms the state-of-the-art methods by a large margin.

arxiv情報

著者 Xiaoshuang Chen,Yiru Zhao,Yu Qin,Fei Jiang,Mingyuan Tao,Xiansheng Hua,Hongtao Lu
発行日 2022-08-18 09:51:20+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク