Investigating the Corruption Robustness of Image Classifiers with Random Lp-norm Corruptions

要約

堅牢性は、安全性と信頼性を実現するために必要な機械学習分類器の基本的な特性です。
画像分類器の敵対的ロバスト性の分野では、ロバスト性は一般に、p ノルム距離内のすべての入力変化に対するモデルの安定性として定義されます。
ただし、ランダム破損の堅牢性の分野では、現実世界で観察される変動が使用されますが、p ノルム破損はほとんど考慮されません。
この研究では、画像分類器のトレーニング データとテスト データを強化するためにランダムな p ノルム破損を使用する方法を調査します。
我々は、知覚できないほどのランダムな p ノルム破損に対するモデルの堅牢性を評価し、新しい堅牢性指標を提案します。
私たちは、ロバスト性が異なる p ノルム間で移行するかどうかを経験的に調査し、モデルをトレーニングおよび評価する必要がある p ノルムの破損に関する結論を導き出します。
p ノルム破損を組み合わせたトレーニング データ拡張により、最先端のデータ拡張スキームを使用した場合でも、破損の堅牢性が大幅に向上することがわかりました。

要約(オリジナル)

Robustness is a fundamental property of machine learning classifiers required to achieve safety and reliability. In the field of adversarial robustness of image classifiers, robustness is commonly defined as the stability of a model to all input changes within a p-norm distance. However, in the field of random corruption robustness, variations observed in the real world are used, while p-norm corruptions are rarely considered. This study investigates the use of random p-norm corruptions to augment the training and test data of image classifiers. We evaluate the model robustness against imperceptible random p-norm corruptions and propose a novel robustness metric. We empirically investigate whether robustness transfers across different p-norms and derive conclusions on which p-norm corruptions a model should be trained and evaluated. We find that training data augmentation with a combination of p-norm corruptions significantly improves corruption robustness, even on top of state-of-the-art data augmentation schemes.

arxiv情報

著者 Georg Siedel,Weijia Shao,Silvia Vock,Andrey Morozov
発行日 2023-12-22 11:30:28+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG, stat.ML パーマリンク