Dynamic Batch Norm Statistics Update for Natural Robustness

要約

自然なクリーンなサンプルでトレーニングされた DNN は、ノイズの多い画像やぼやけた画像などの破損したサンプルではパフォーマンスが低下することがわかっています。
最近、一般的な破損に対する DNN の堅牢性を向上させるために、さまざまなデータ拡張方法が提案されています。
成功したにもかかわらず、計算コストのかかるトレーニングが必要であり、既製のトレーニング済みモデルには適用できません。
最近、単一の破損に関する既製モデルの BatchNorm (BN) 統計を更新すると、その破損に関する精度が大幅に向上することが示されました。
ただし、破損の種類が不明な推論時にこのアイデアを採用し、変更すると、この方法の有効性が低下します。
この論文では、フーリエ領域を利用して、画像領域では困難なタスクである破損の種類を検出します。
私たちは、既製のトレーニング済みモデルの破損精度を向上させる破損検出モデルと BN 統計更新で構成される統合フレームワークを提案します。
さまざまなモデルやデータセットでフレームワークのベンチマークを行います。
私たちの結果は、CIFAR10-C と ImageNet-C でそれぞれ約 8% と 4% の精度向上を示しています。
さらに、私たちのフレームワークは、AugMix や DeepAug などの最先端の堅牢なモデルの精度をさらに向上させることができます。

要約(オリジナル)

DNNs trained on natural clean samples have been shown to perform poorly on corrupted samples, such as noisy or blurry images. Various data augmentation methods have been recently proposed to improve DNN’s robustness against common corruptions. Despite their success, they require computationally expensive training and cannot be applied to off-the-shelf trained models. Recently, it has been shown that updating BatchNorm (BN) statistics of an off-the-shelf model on a single corruption improves its accuracy on that corruption significantly. However, adopting the idea at inference time when the type of corruption is unknown and changing decreases the effectiveness of this method. In this paper, we harness the Fourier domain to detect the corruption type, a challenging task in the image domain. We propose a unified framework consisting of a corruption-detection model and BN statistics update that improves the corruption accuracy of any off-the-shelf trained model. We benchmark our framework on different models and datasets. Our results demonstrate about 8% and 4% accuracy improvement on CIFAR10-C and ImageNet-C, respectively. Furthermore, our framework can further improve the accuracy of state-of-the-art robust models, such as AugMix and DeepAug.

arxiv情報

著者 Shahbaz Rezaei,Mohammad Sadegh Norouzzadeh
発行日 2023-10-31 17:20:30+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG パーマリンク