要約
敵対的画像は、画像分類器に誤分類を生じさせることを意図して作成されます。
この論文では、現在の研究で使用されているように、ラベルの不一致ではなく、意味の不一致に基づいて敵対的な画像を評価することを提案します。
言い換えれば、現在のシステムが想定するような「カップ」ではなく「カブ」として分類された場合、「マグカップ」の画像は敵対的であると見なされることを提案します。
敵対的画像の評価においてセマンティック誤分類を考慮に入れるという私たちの斬新なアイデアには、2 つの利点があります。
まず、敵対的な画像の意味を完全に理解するために重要な、敵対的な画像のより現実的な概念化です。
第二に、画像の作成中に分類器のラベルセットが利用可能である必要なく、敵対的画像の現実世界の分類器への転送可能性を評価することが可能になります。
この論文では、セマンティック誤分類アプローチによって可能になった実世界の画像分類器に対する転送攻撃の評価を実行します。
この攻撃は、従来のラベルの不一致を使用して調査できなかった敵対的誤分類のセマンティクスのパターンを明らかにします。
要約(オリジナル)
Adversarial images are created with the intention of causing an image classifier to produce a misclassification. In this paper, we propose that adversarial images should be evaluated based on semantic mismatch, rather than label mismatch, as used in current work. In other words, we propose that an image of a ‘mug’ would be considered adversarial if classified as ‘turnip’, but not as ‘cup’, as current systems would assume. Our novel idea of taking semantic misclassification into account in the evaluation of adversarial images offers two benefits. First, it is a more realistic conceptualization of what makes an image adversarial, which is important in order to fully understand the implications of adversarial images for security and privacy. Second, it makes it possible to evaluate the transferability of adversarial images to a real-world classifier, without requiring the classifier’s label set to have been available during the creation of the images. The paper carries out an evaluation of a transfer attack on a real-world image classifier that is made possible by our semantic misclassification approach. The attack reveals patterns in the semantics of adversarial misclassifications that could not be investigated using conventional label mismatch.
arxiv情報
著者 | Zhengyu Zhao,Nga Dang,Martha Larson |
発行日 | 2022-12-13 18:18:50+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google