要約
ディープニューラルネットワーク(DNN)は、敵対的な例(AE)に対して脆弱であることがよく知られている。また、AEは敵対的移転性、すなわち、ソースモデルに対して生成されたAEが他の(ターゲット)モデルを騙すという性質を持っている。本論文では、敵対的ロバスト防衛のために暗号化されたモデルの移転可能性を初めて調査する。移植性を客観的に検証するために、AutoAttackと呼ばれるベンチマーク攻撃法を用いてモデルの頑健性を評価する。画像分類実験では、暗号化されたモデルを用いることで、AEに対するロバスト性だけでなく、モデルの移植性の観点からもAEの影響を低減できることが確認された。
要約(オリジナル)
Deep neural networks (DNNs) are well known to be vulnerable to adversarial examples (AEs). In addition, AEs have adversarial transferability, namely, AEs generated for a source model fool other (target) models. In this paper, we investigate the transferability of models encrypted for adversarially robust defense for the first time. To objectively verify the property of transferability, the robustness of models is evaluated by using a benchmark attack method, called AutoAttack. In an image-classification experiment, the use of encrypted models is confirmed not only to be robust against AEs but to also reduce the influence of AEs in terms of the transferability of models.
arxiv情報
著者 | Miki Tanaka,Isao Echizen,Hitoshi Kiya |
発行日 | 2022-09-07 08:50:26+00:00 |
arxivサイト | arxiv_id(pdf) |