Rethinking Spatial Invariance of Convolutional Networks for Object Counting

要約

以前の研究では、一般に、畳み込みネットワークの空間的不変性を改善することがオブジェクト カウンティングの鍵であると考えられていました。
ただし、いくつかの主流のカウンティング ネットワークを検証した後、驚くべきことに、ピクセル レベルの空間不変性が厳しすぎると、密度マップの生成でオーバーフィット ノイズが発生することがわかりました。
この論文では、局所的に接続されたガウス カーネルを使用して元の畳み込みフィルターを置き換え、密度マップ内の空間位置を推定しようとします。
これの目的は、特徴抽出プロセスが潜在的に密度マップ生成プロセスを刺激して、注釈ノイズを克服できるようにすることです。
以前の研究に触発されて、大規模なガウス畳み込みの近似を有利に実装するために、並進不変性を伴う低ランク近似を提案します。
私たちの研究は、フォローアップ研究の新しい方向性を示しており、オブジェクトカウントのための過度に厳密なピクセルレベルの空間的不変性を適切に緩和する方法を調査する必要があります.
4 つの主流のオブジェクト カウント ネットワーク (つまり、MCNN、CSRNet、SANet、および ResNet-50) でメソッドを評価します。
3 つのアプリケーション (つまり、群集、車両、および植物のカウント) の 7 つの一般的なベンチマークで広範な実験が行われました。
実験結果は、私たちの方法が他の最先端の方法よりも大幅に優れており、オブジェクトの空間位置の有望な学習を達成することを示しています。

要約(オリジナル)

Previous work generally believes that improving the spatial invariance of convolutional networks is the key to object counting. However, after verifying several mainstream counting networks, we surprisingly found too strict pixel-level spatial invariance would cause overfit noise in the density map generation. In this paper, we try to use locally connected Gaussian kernels to replace the original convolution filter to estimate the spatial position in the density map. The purpose of this is to allow the feature extraction process to potentially stimulate the density map generation process to overcome the annotation noise. Inspired by previous work, we propose a low-rank approximation accompanied with translation invariance to favorably implement the approximation of massive Gaussian convolution. Our work points a new direction for follow-up research, which should investigate how to properly relax the overly strict pixel-level spatial invariance for object counting. We evaluate our methods on 4 mainstream object counting networks (i.e., MCNN, CSRNet, SANet, and ResNet-50). Extensive experiments were conducted on 7 popular benchmarks for 3 applications (i.e., crowd, vehicle, and plant counting). Experimental results show that our methods significantly outperform other state-of-the-art methods and achieve promising learning of the spatial position of objects.

arxiv情報

著者 Zhi-Qi Cheng,Qi Dai,Hong Li,JingKuan Song,Xiao Wu,Alexander G. Hauptmann
発行日 2022-08-18 14:43:06+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG, stat.AP パーマリンク