要約
畳み込みニューラル ネットワーク (CNN) は目覚ましい進歩を遂げました。
ただし、特に人間が容易に認識できる小さな画像の乱れに直面した場合、脆弱性の影響を受けやすいままです。
多くの場合「攻撃」と呼ばれるこの弱点は、CNN の堅牢性が限られていることと、そのような操作に対する耐性を強化するための研究の必要性を強調しています。
この研究では、さまざまな NUI マスクを使用して画像を微妙に変更する、新しい非均一照明 (NUI) 攻撃手法を導入しています。
CIFAR10、TinyImageNet、CalTech256 などの広く受け入れられているデータセットに対して広範な実験が行われ、12 の異なる NUI 攻撃モデルによる画像分類に焦点が当てられています。
VGG、ResNet、MobilenetV3-small、および InceptionV3 モデルの NUI 攻撃に対する回復力が評価されます。
私たちの結果は、NUI 攻撃を受けると CNN モデルの分類精度が大幅に低下することを示しており、不均一な照明下での脆弱性を示しています。
これを軽減するために、新しい NUI 変換を通じて生成された NUI 攻撃された画像をトレーニング セットに組み込む防御戦略が提案されています。
この結果は、NUI 攻撃の影響で乱れた画像に直面した場合に、CNN モデルのパフォーマンスが大幅に向上することを示しています。
この戦略は、NUI 攻撃に対する CNN モデルの回復力を強化することを目的としています。
要約(オリジナル)
Convolutional Neural Networks (CNNs) have made remarkable strides; however, they remain susceptible to vulnerabilities, particularly in the face of minor image perturbations that humans can easily recognize. This weakness, often termed as ‘attacks’, underscores the limited robustness of CNNs and the need for research into fortifying their resistance against such manipulations. This study introduces a novel Non-Uniform Illumination (NUI) attack technique, where images are subtly altered using varying NUI masks. Extensive experiments are conducted on widely-accepted datasets including CIFAR10, TinyImageNet, and CalTech256, focusing on image classification with 12 different NUI attack models. The resilience of VGG, ResNet, MobilenetV3-small and InceptionV3 models against NUI attacks are evaluated. Our results show a substantial decline in the CNN models’ classification accuracy when subjected to NUI attacks, indicating their vulnerability under non-uniform illumination. To mitigate this, a defense strategy is proposed, including NUI-attacked images, generated through the new NUI transformation, into the training set. The results demonstrate a significant enhancement in CNN model performance when confronted with perturbed images affected by NUI attacks. This strategy seeks to bolster CNN models’ resilience against NUI attacks.
arxiv情報
著者 | Akshay Jain,Shiv Ram Dubey,Satish Kumar Singh,KC Santosh,Bidyut Baran Chaudhuri |
発行日 | 2024-09-05 12:14:33+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google