Difference in Euclidean Norm Can Cause Semantic Divergence in Batch Normalization

要約

本論文では,一括正規化における空間変換とスケーリング変換の後,サンプルのユークリッドノルムの違いが意味的な乖離,さらには混同に寄与する可能性があることを示す.この問題を解決するために、我々はサンプルベクトルのユークリッドノルムを等化する直感的かつ効果的な方法を提案する。具体的には,一括正規化の前に各サンプルベクトルを$l_2$正規化するので,サンプルベクトルは同じ大きさになる.提案手法は$l_2$正規化とバッチ正規化を組み合わせているため、本手法を$L_2$BNと名付ける。L_2$BNは、クラス内特徴のコンパクト性を強化し、クラス間特徴の不一致を拡大することができる。また、勾配を安定したスケールに収束させることができる。L_2$BNは実装が容易であり、パラメータやハイパーパラメータを追加することなく、その効果を発揮することができる。したがって、ニューラルネットワークの基本的な正規化手法として利用することができる。我々は、画像分類と音響シーン分類の課題に対して、様々なモデルを用いた広範な実験を通して、$L_2$BNの有効性を評価する。実験結果は、$L_2$BNが様々なニューラルネットワークモデルの汎化能力を高め、かなりの性能向上を達成できることを実証している。

要約(オリジナル)

In this paper, we show that the difference in Euclidean norm of samples can make a contribution to the semantic divergence and even confusion, after the spatial translation and scaling transformation in batch normalization. To address this issue, we propose an intuitive but effective method to equalize the Euclidean norms of sample vectors. Concretely, we $l_2$-normalize each sample vector before batch normalization, and therefore the sample vectors are of the same magnitude. Since the proposed method combines the $l_2$ normalization and batch normalization, we name our method as $L_2$BN. The $L_2$BN can strengthen the compactness of intra-class features and enlarge the discrepancy of inter-class features. In addition, it can help the gradient converge to a stable scale. The $L_2$BN is easy to implement and can exert its effect without any additional parameters and hyper-parameters. Therefore, it can be used as a basic normalization method for neural networks. We evaluate the effectiveness of $L_2$BN through extensive experiments with various models on image classification and acoustic scene classification tasks. The experimental results demonstrate that the $L_2$BN is able to boost the generalization ability of various neural network models and achieve considerable performance improvements.

arxiv情報

著者 Zhennan Wang,Kehan Li,Runyi Yu,Yian Zhao,Pengchong Qiao,Guoli Song,Fan Xu,Jie Chen
発行日 2022-07-06 12:34:33+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CV パーマリンク