要約
以前の研究では、一般に、畳み込みネットワークの空間的不変性を改善することがオブジェクトカウントの鍵であると考えています。
ただし、いくつかの主流のカウントネットワークを検証した後、驚くべきことに、ピクセルレベルの空間的不変性が厳しすぎると、密度マップの生成で過剰適合ノイズが発生することがわかりました。
この論文では、局所連結ガウスカーネルを使用して元の畳み込みフィルターを置き換え、密度マップの空間位置を推定しようとします。
これの目的は、特徴抽出プロセスが密度マップ生成プロセスを潜在的に刺激して、注釈ノイズを克服できるようにすることです。
以前の研究に触発されて、大規模なガウス畳み込みの近似を有利に実装するために、並進不変を伴う低ランク近似を提案します。
私たちの研究は、オブジェクトカウントのための過度に厳密なピクセルレベルの空間的不変性を適切に緩和する方法を調査する必要がある追跡調査の新しい方向性を示しています。
4つの主流のオブジェクトカウントネットワーク(MCNN、CSRNet、SANet、ResNet-50)でメソッドを評価します。
3つのアプリケーション(つまり、群集、車両、および植物のカウント)について、7つの一般的なベンチマークで広範な実験が行われました。
実験結果は、私たちの方法が他の最先端の方法を大幅に上回り、オブジェクトの空間位置の有望な学習を達成することを示しています。
要約(オリジナル)
Previous work generally believes that improving the spatial invariance of convolutional networks is the key to object counting. However, after verifying several mainstream counting networks, we surprisingly found too strict pixel-level spatial invariance would cause overfit noise in the density map generation. In this paper, we try to use locally connected Gaussian kernels to replace the original convolution filter to estimate the spatial position in the density map. The purpose of this is to allow the feature extraction process to potentially stimulate the density map generation process to overcome the annotation noise. Inspired by previous work, we propose a low-rank approximation accompanied with translation invariance to favorably implement the approximation of massive Gaussian convolution. Our work points a new direction for follow-up research, which should investigate how to properly relax the overly strict pixel-level spatial invariance for object counting. We evaluate our methods on 4 mainstream object counting networks (i.e., MCNN, CSRNet, SANet, and ResNet-50). Extensive experiments were conducted on 7 popular benchmarks for 3 applications (i.e., crowd, vehicle, and plant counting). Experimental results show that our methods significantly outperform other state-of-the-art methods and achieve promising learning of the spatial position of objects.
arxiv情報
著者 | Zhi-Qi Cheng,Qi Dai,Hong Li,JingKuan Song,Xiao Wu,Alexander G. Hauptmann |
発行日 | 2022-06-10 17:51:25+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google