On the Exploitation of DCT-Traces in the Generative-AI Domain

要約

ディープフェイクは、特に最近の生成 AI ベースのソリューションで得られた高品質の結果を考慮すると、サイバーセキュリティとデジタル フォレンジックの世界で最も困難な課題の 1 つです。
ほぼすべての生成モデルは、合成データに固有の痕跡を残します。これを詳細に分析して特定すれば、既存のディープフェイク検出器の一般化限界を改善するために悪用できます。
この論文では、GAN エンジンと拡散モデル エンジンの両方によって生成されたディープフェイク画像を周波数領域で分析し、離散コサイン変換 (DCT) 係数の基礎となる統計分布を詳細に調べました。
すべての係数が画像検出に等しく寄与するわけではないことを認識し、係数の特定の組み合わせに埋め込まれた固有の「識別指紋」が存​​在するという仮説を立てます。
それらを識別するために、機械学習分類器は係数のさまざまな組み合わせでトレーニングされました。
さらに、Explainable AI (XAI) LIME アルゴリズムを使用して、係数の固有の識別的な組み合わせを検索しました。
最後に、JPEG 圧縮を適用してトレースの持続性を分析する堅牢性テストを実行しました。
実験結果は、JPEG 攻撃においてより識別力があり、持続的な生成モデルによって残された痕跡の存在を明らかにしました。

要約(オリジナル)

Deepfakes represent one of the toughest challenges in the world of Cybersecurity and Digital Forensics, especially considering the high-quality results obtained with recent generative AI-based solutions. Almost all generative models leave unique traces in synthetic data that, if analyzed and identified in detail, can be exploited to improve the generalization limitations of existing deepfake detectors. In this paper we analyzed deepfake images in the frequency domain generated by both GAN and Diffusion Model engines, examining in detail the underlying statistical distribution of Discrete Cosine Transform (DCT) coefficients. Recognizing that not all coefficients contribute equally to image detection, we hypothesize the existence of a unique ‘discriminative fingerprint’, embedded in specific combinations of coefficients. To identify them, Machine Learning classifiers were trained on various combinations of coefficients. In addition, the Explainable AI (XAI) LIME algorithm was used to search for intrinsic discriminative combinations of coefficients. Finally, we performed a robustness test to analyze the persistence of traces by applying JPEG compression. The experimental results reveal the existence of traces left by the generative models that are more discriminative and persistent at JPEG attacks.

arxiv情報

著者 Orazio Pontorno,Luca Guarnera,Sebastiano Battiato
発行日 2024-02-12 08:25:06+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG パーマリンク