Covariance-corrected Whitening Alleviates Network Degeneration on Imbalanced Classification

要約

クラスの不均衡は画像分類における重要な問題であり、深層認識モデルのパフォーマンスに大きな影響を与えます。
この研究では、まず、分類器に入力された特徴間に高い線形依存性を導入することによってモデル学習を妨げるネットワーク縮退のジレンマを特定します。
この課題を克服するために、私たちは退化ソリューションを軽減するために Whitening-Net と呼ばれる新しいフレームワークを提案します。このフレームワークでは、バッチ サンプルを正規化して無相関化するための線形分類器の前に ZCA ホワイトニングが統合されています。
ただし、クラスの不均衡が極端に大きいシナリオでは、バッチ共分散統計が大幅な変動を示し、ホワイトニング操作の収束が妨げられます。
したがって、より正確で安定したバッチ共分散を取得し、それによってホワイトニングの機能を強化するために、グループベースの相対バランスバッチサンプラー (GRBS) とバッチ埋め込みトレーニング (BET) という 2 つの共分散補正モジュールを提案します。
当社のモジュールは、大幅な計算コストを発生させることなく、エンドツーエンドでトレーニングできます。
CIFAR-LT-10/100、ImageNet-LT、iNaturalist-LT などのベンチマーク データセットに対して実行された包括的な実証評価により、提案されたアプローチの有効性が検証されます。

要約(オリジナル)

Class imbalance is a critical issue in image classification that significantly affects the performance of deep recognition models. In this work, we first identify a network degeneration dilemma that hinders the model learning by introducing a high linear dependence among the features inputted into the classifier. To overcome this challenge, we propose a novel framework called Whitening-Net to mitigate the degenerate solutions, in which ZCA whitening is integrated before the linear classifier to normalize and decorrelate the batch samples. However, in scenarios with extreme class imbalance, the batch covariance statistic exhibits significant fluctuations, impeding the convergence of the whitening operation. Therefore, we propose two covariance-corrected modules, the Group-based Relatively Balanced Batch Sampler (GRBS) and the Batch Embedded Training (BET), to get more accurate and stable batch covariance, thereby reinforcing the capability of whitening. Our modules can be trained end-to-end without incurring substantial computational costs. Comprehensive empirical evaluations conducted on benchmark datasets, including CIFAR-LT-10/100, ImageNet-LT, and iNaturalist-LT, validate the effectiveness of our proposed approaches.

arxiv情報

著者 Zhiwei Zhang
発行日 2024-08-30 10:49:33+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク