要約
人工知能 (AI) テクノロジーの人気により、トレーニング サンプルとトレーニング プロセスを操作することでディープ ニューラル ネットワークの予測を誤らせるように、敵対者によって多数のバックドア攻撃が設計されています。
バックドア攻撃は実際のさまざまなシナリオで効果的ですが、汚染されたサンプルの忠実度が低いことと、潜在空間での無視できない転送の両方の問題が依然としてあり、そのため既存のバックドア検出アルゴリズムで簡単に検出できます。
この弱点を克服するために、この論文では、Wave Attack と呼ばれる新しい周波数ベースのバックドア攻撃手法を提案します。この手法は、離散ウェーブレット変換 (DWT) を通じて画像の高周波特徴を取得し、バックドア トリガーを生成します。
さらに、非対称周波数難読化手法を導入します。これにより、トレーニングと推論の段階で適応残差を追加して、トリガーの影響を改善し、Wave Attack の有効性をさらに高めることができます。
包括的な実験結果は、Wave Attack がより高いステルス性と有効性を達成するだけでなく、画像の忠実度において、PSNR で最大 28.27\% 改善、最大 1.61\% 改善することで、最先端 (SOTA) バックドア攻撃手法を上回っていることを示しています。
SSIM、および IS で 70.59\% 削減。
要約(オリジナル)
Due to the popularity of Artificial Intelligence (AI) technology, numerous backdoor attacks are designed by adversaries to mislead deep neural network predictions by manipulating training samples and training processes. Although backdoor attacks are effective in various real scenarios, they still suffer from the problems of both low fidelity of poisoned samples and non-negligible transfer in latent space, which make them easily detectable by existing backdoor detection algorithms. To overcome the weakness, this paper proposes a novel frequency-based backdoor attack method named WaveAttack, which obtains image high-frequency features through Discrete Wavelet Transform (DWT) to generate backdoor triggers. Furthermore, we introduce an asymmetric frequency obfuscation method, which can add an adaptive residual in the training and inference stage to improve the impact of triggers and further enhance the effectiveness of WaveAttack. Comprehensive experimental results show that WaveAttack not only achieves higher stealthiness and effectiveness, but also outperforms state-of-the-art (SOTA) backdoor attack methods in the fidelity of images by up to 28.27\% improvement in PSNR, 1.61\% improvement in SSIM, and 70.59\% reduction in IS.
arxiv情報
著者 | Jun Xia,Zhihao Yue,Yingbo Zhou,Zhiwei Ling,Xian Wei,Mingsong Chen |
発行日 | 2023-10-19 14:42:49+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google