要約
堅牢性は、安全性と信頼性を実現するための機械学習分類器の基本的な特性です。
画像分類モデルの敵対的ロバスト性および形式的ロバスト性検証の分野では、ロバスト性は一般に、Lp ノルム距離内のすべての入力変動に対する安定性として定義されます。
ただし、ランダムな破損に対する堅牢性は通常、現実世界で観察される変動を使用して改善および評価されますが、数学的に定義された Lp ノルムの破損はほとんど考慮されません。
この研究では、画像分類器のトレーニング データとテスト データを強化するためのランダムな Lp ノルム破損の使用を調査します。
敵対的堅牢性の分野からのアプローチを採用して、知覚できないランダムな破損に対するモデルの堅牢性を評価します。
私たちは、ロバスト性が異なる Lp ノルム間で移行可能かどうかを経験的および理論的に調査し、どの Lp ノルム破損に基づいてモデルをトレーニングおよび評価する必要があるかについて結論を導き出します。
L0 ノルム破損を含むトレーニング データ拡張は、選択された最先端のデータ拡張技術に加えて適用すると、標準トレーニングと比較して精度を維持しながら破損の堅牢性が向上することがわかりました。
要約(オリジナル)
Robustness is a fundamental property of machine learning classifiers to achieve safety and reliability. In the fields of adversarial robustness and formal robustness verification of image classification models, robustness is commonly defined as the stability to all input variations within an Lp-norm distance. However, robustness to random corruptions is usually improved and evaluated using variations observed in the real-world, while mathematically defined Lp-norm corruptions are rarely considered. This study investigates the use of random Lp-norm corruptions to augment the training and test data of image classifiers. We adapt an approach from the field of adversarial robustness to assess the model robustness to imperceptible random corruptions. We empirically and theoretically investigate whether robustness is transferable across different Lp-norms and derive conclusions on which Lp-norm corruptions a model should be trained and evaluated on. We find that training data augmentation with L0-norm corruptions improves corruption robustness while maintaining accuracy compared to standard training and when applied on top of selected state-of-the-art data augmentation techniques.
arxiv情報
著者 | Georg Siedel,Weijia Shao,Silvia Vock,Andrey Morozov |
発行日 | 2023-11-16 16:37:06+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google