要約
視覚的にリアルなGAN生成画像は、最近、重要な誤報の脅威として浮上しています。
調査によると、これらの合成画像には、フォレンジック検出器で簡単に識別できるフォレンジックトレースが含まれています。
残念ながら、これらの検出器は、最近開発された敵対的攻撃に対して脆弱なニューラルネットワーク上に構築されています。
この論文では、GANで生成された画像検出器をだますことができる新しいアンチフォレンジック攻撃を提案します。
私たちの攻撃では、敵対的に訓練されたジェネレータを使用して、これらの検出器が実際の画像に関連付けるトレースを合成します。
さらに、転送可能性を実現できるように攻撃をトレーニングする手法を提案します。つまり、明示的にトレーニングされていない未知のCNNをだますことができます。
広範な実験を通じて攻撃を評価します。この実験では、7つの異なるGANを使用して作成された合成画像を使用して、8つの最先端の検出CNNをだまし、他の代替攻撃よりも優れていることを示しています。
要約(オリジナル)
Visually realistic GAN-generated images have recently emerged as an important misinformation threat. Research has shown that these synthetic images contain forensic traces that are readily identifiable by forensic detectors. Unfortunately, these detectors are built upon neural networks, which are vulnerable to recently developed adversarial attacks. In this paper, we propose a new anti-forensic attack capable of fooling GAN-generated image detectors. Our attack uses an adversarially trained generator to synthesize traces that these detectors associate with real images. Furthermore, we propose a technique to train our attack so that it can achieve transferability, i.e. it can fool unknown CNNs that it was not explicitly trained against. We evaluate our attack through an extensive set of experiments, where we show that our attack can fool eight state-of-the-art detection CNNs with synthetic images created using seven different GANs, and outperform other alternative attacks.
arxiv情報
著者 | Xinwei Zhao,Matthew C. Stamm |
発行日 | 2022-06-22 17:11:40+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google