要約
群衆カウントの研究の分野では、最近の多くの深層学習ベースの手法により、群衆の規模を正確に推定するための堅牢な機能が実証されています。
ただし、パフォーマンスの向上は、モデル構造の複雑さの増加によって生じることがよくあります。
この論文では、単純な構造のみを使用して高性能群衆計数モデルを構築する方法について説明します。
私たちは、バックボーンネットワークとマルチスケールの機能融合構造のみからなるシンプルかつ効率的な構造を特徴とするFuss-Free Network(FFNet)を提案します。
マルチスケール特徴融合構造は、フォーカス遷移モジュールのみを備えた 3 つの分岐からなる単純な構造であり、これらの分岐の特徴を連結演算によって結合します。
私たちが提案する群衆カウント モデルは、広く使用されている 4 つの公開データセットでトレーニングおよび評価されており、既存の複雑なモデルに匹敵する精度を達成しています。
さらにFFNetやCCTransなどの各種モデルの既存バックボーンをMobileNet-v3、ConvNeXt-Tiny、Swin-Transformer-Smallなどの異なるネットワークに置き換えて総合評価を行います。
実験結果はさらに、私たちが提案した単純な構造で優れた群衆カウント性能を達成できることを示しています。
要約(オリジナル)
In the field of crowd counting research, many recent deep learning based methods have demonstrated robust capabilities for accurately estimating crowd sizes. However, the enhancement in their performance often arises from an increase in the complexity of the model structure. This paper discusses how to construct high-performance crowd counting models using only simple structures. We proposes the Fuss-Free Network (FFNet) that is characterized by its simple and efficieny structure, consisting of only a backbone network and a multi-scale feature fusion structure. The multi-scale feature fusion structure is a simple structure consisting of three branches, each only equipped with a focus transition module, and combines the features from these branches through the concatenation operation. Our proposed crowd counting model is trained and evaluated on four widely used public datasets, and it achieves accuracy that is comparable to that of existing complex models. Furthermore, we conduct a comprehensive evaluation by replacing the existing backbones of various models such as FFNet and CCTrans with different networks, including MobileNet-v3, ConvNeXt-Tiny, and Swin-Transformer-Small. The experimental results further indicate that excellent crowd counting performance can be achieved with the simplied structure proposed by us.
arxiv情報
著者 | Lei Chen,Xinghang Gao,Fei Chao,Xiang Chang,Chih Min Lin,Xingen Gao,Shaopeng Lin,Hongyi Zhang,Juqiang Lin |
発行日 | 2024-06-18 13:16:55+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google