要約
近年、ニューラルネットワークの堅牢性評価に大きな注目が集まっています。
堅牢性は、複雑で不確実な環境において人工知能 (AI) システムの信頼性の高い動作を保証する上で重要な役割を果たします。
ディープラーニングの堅牢性の問題は特に重要であり、画像分類モデルに対する敵対的攻撃の発見によって強調されています。
研究者は、画像認識タスクのさまざまな摂動条件におけるロバスト性を評価することに専念してきました。
堅牢性評価には、意図的な敵対的攻撃に対する堅牢性の検証/認証と、ランダムなデータ破損に対する堅牢性テストという 2 つの主要な手法が含まれます。
この調査では、ニューラル ネットワーク評価における敵対的堅牢性 (AR) と破損堅牢性 (CR) の両方の詳細な調査を紹介します。
現在の研究論文と標準を分析して、画像認識における堅牢性評価の広範な概要を提供します。
概念、指標、評価方法という 3 つの重要な側面が分析されます。
画像上の摂動の度合いを測定するために使用される摂動メトリクスと範囲表現、および特に分類モデルのロバスト性条件のためのロバスト性メトリクスを調査します。
既存の方法の長所と限界についても説明し、将来の研究の潜在的な方向性をいくつか示します。
要約(オリジナル)
In recent years, there has been significant attention given to the robustness assessment of neural networks. Robustness plays a critical role in ensuring reliable operation of artificial intelligence (AI) systems in complex and uncertain environments. Deep learning’s robustness problem is particularly significant, highlighted by the discovery of adversarial attacks on image classification models. Researchers have dedicated efforts to evaluate robustness in diverse perturbation conditions for image recognition tasks. Robustness assessment encompasses two main techniques: robustness verification/ certification for deliberate adversarial attacks and robustness testing for random data corruptions. In this survey, we present a detailed examination of both adversarial robustness (AR) and corruption robustness (CR) in neural network assessment. Analyzing current research papers and standards, we provide an extensive overview of robustness assessment in image recognition. Three essential aspects are analyzed: concepts, metrics, and assessment methods. We investigate the perturbation metrics and range representations used to measure the degree of perturbations on images, as well as the robustness metrics specifically for the robustness conditions of classification models. The strengths and limitations of the existing methods are also discussed, and some potential directions for future research are provided.
arxiv情報
著者 | Jie Wang,Jun Ai,Minyan Lu,Haoran Su,Dan Yu,Yutao Zhang,Junda Zhu,Jingyu Liu |
発行日 | 2024-04-15 10:50:47+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google