On the Vulnerability of DeepFake Detectors to Attacks Generated by Denoising Diffusion Models

要約

悪意のあるディープフェイクの検出は常に進化する問題であり、最新のモデルによって生成された画像操作を確実に検出できるように、検出器を継続的に監視する必要があります。
この論文では、最新世代の生成手法の代表であるノイズ除去拡散モデル (DDM) によって作成された攻撃に対する単一画像ディープフェイク検出器の脆弱性を調査する予備研究を紹介します。
私たちの実験は、一般的に使用されるベンチマーク データセットである FaceForensics++ 上で実行され、顔の交換や顔の再現のためのさまざまな技術で生成されたディープフェイクで構成されています。
分析の結果、ノイズ除去拡散ステップを 1 回だけ行って既存のディープフェイクを再構成すると、視覚的に認識できる画像の変化が生じることなく、テストされたすべての検出器の精度が大幅に低下することがわかりました。

要約(オリジナル)

The detection of malicious Deepfakes is a constantly evolving problem, that requires continuous monitoring of detectors, to ensure they are able to detect image manipulations generated by the latest emerging models. In this paper, we present a preliminary study that investigates the vulnerability of single-image Deepfake detectors to attacks created by a representative of the newest generation of generative methods, i.e. Denoising Diffusion Models (DDMs). Our experiments are run on FaceForensics++, a commonly used benchmark dataset, consisting of Deepfakes generated with various techniques for face swapping and face reenactment. The analysis shows, that reconstructing existing Deepfakes with only one denoising diffusion step significantly decreases the accuracy of all tested detectors, without introducing visually perceptible image changes.

arxiv情報

著者 Marija Ivanovska,Vitomir Štruc
発行日 2023-07-11 15:57:51+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク