Black-Box Attack against GAN-Generated Image Detector with Contrastive Perturbation

要約

GANで生成されたリアルな顔画像は、悪用される可能性があることが懸念されています。近年、このような合成画像を検出するための有効なフォレンジックアルゴリズムが多数開発されている。しかし、このようなアルゴリズムが敵対的な攻撃に対してどのような脆弱性を持つかを評価することは重要な課題である。本論文では、GAN生成画像検出器に対する新しいブラックボックス攻撃法を提案する。エンコーダデコーダネットワークに基づくアンチフォレンジックモデルを対照的な損失関数の下で学習させるために、新しい対照的な学習戦略を採用する。GAN画像とその模擬実画像をそれぞれ正と負のサンプルとして構成する。学習された攻撃モデルを活用し、入力合成画像に知覚できないコントラスト摂動を適用することで、GAN指紋をある程度まで除去することが可能である。そのため、既存のGANを用いた画像検出器は欺かれることが予想される。広範な実験結果により、提案する攻撃は、6つの一般的なGANに関する3つの最新検出器の精度を効果的に低下させることが検証された。また、攻撃された画像の高い視覚的品質が達成される。ソースコードは https://github.com/ZXMMD/BAttGAND で公開する。

要約(オリジナル)

Visually realistic GAN-generated facial images raise obvious concerns on potential misuse. Many effective forensic algorithms have been developed to detect such synthetic images in recent years. It is significant to assess the vulnerability of such forensic detectors against adversarial attacks. In this paper, we propose a new black-box attack method against GAN-generated image detectors. A novel contrastive learning strategy is adopted to train the encoder-decoder network based anti-forensic model under a contrastive loss function. GAN images and their simulated real counterparts are constructed as positive and negative samples, respectively. Leveraging on the trained attack model, imperceptible contrastive perturbation could be applied to input synthetic images for removing GAN fingerprint to some extent. As such, existing GAN-generated image detectors are expected to be deceived. Extensive experimental results verify that the proposed attack effectively reduces the accuracy of three state-of-the-art detectors on six popular GANs. High visual quality of the attacked images is also achieved. The source code will be available at https://github.com/ZXMMD/BAttGAND.

arxiv情報

著者 Zijie Lou,Gang Cao,Man Lin
発行日 2022-11-07 12:56:14+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CR, cs.CV パーマリンク