要約
畳み込みニューラル ネットワーク (CNN) は優れたパフォーマンスを達成しましたが、特徴抽出の性質と特性についてはまだ明確ではありません。
この論文では、周波数とスケールに対するニューラル ネットワークの感度を分析することにより、ニューラル ネットワークには低周波数と中周波数のバイアスがあるだけでなく、クラスごとに異なる周波数帯域を好み、オブジェクトのスケールが優先周波数に影響することがわかりました。
バンド。
これらの観察結果は、ニューラル ネットワークがさまざまなスケールと頻度で特徴を抽出する能力を学習する必要があるという仮説につながります。
この仮説を裏付けるために、ガウス導関数に基づくネットワーク アーキテクチャを提案します。これは、スケール空間を構築し、部分導関数を局所特徴抽出演算子として使用して高周波情報を分離することによって特徴を抽出します。
さまざまなスケールから特徴を抽出するこの手動で設計された方法により、GSSDNets はさまざまなデータセットでバニラ ネットワークと同等の精度を達成できます。
要約(オリジナル)
Convolutional neural networks (CNNs) have achieved superior performance but still lack clarity about the nature and properties of feature extraction. In this paper, by analyzing the sensitivity of neural networks to frequencies and scales, we find that neural networks not only have low- and medium-frequency biases but also prefer different frequency bands for different classes, and the scale of objects influences the preferred frequency bands. These observations lead to the hypothesis that neural networks must learn the ability to extract features at various scales and frequencies. To corroborate this hypothesis, we propose a network architecture based on Gaussian derivatives, which extracts features by constructing scale space and employing partial derivatives as local feature extraction operators to separate high-frequency information. This manually designed method of extracting features from different scales allows our GSSDNets to achieve comparable accuracy with vanilla networks on various datasets.
arxiv情報
著者 | Liangqi Zhang,Yihao Luo,Xiang Cao,Haibo Shen,Tianjiang Wang |
発行日 | 2023-02-24 06:37:36+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google