要約
AI生成された画像を検出することは、挑戦的でありながら不可欠なタスクです。
主な困難は、その決定に影響を与える可能性のある圧縮アーティファクトなど、偽のパターンに依存する検出器の傾向から生じます。
これらの問題は、多くの場合、検出器が実際のデータ分布に関連する特定のパターンに起因し、実際の生成トレースを分離することを困難にします。
生成モデルによって導入されたアーティファクトが含まれている場合にのみ、画像を偽物として分類する必要があると主張します。
この前提に基づいて、私たちは、実際のデータに関連するものを無視しながら、検出器のフォーカスを生成アーティファクトに制約するように設計されたアルゴリズムであるStay Positiveを提案します。
実験結果は、肯定的な展示で訓練された検出器が偽の相関に対する感受性を低下させ、一般化の改善と後処理への堅牢性をもたらすことを示しています。
さらに、アーティファクトを実際の画像と関連付ける検出器とは異なり、純粋に偽のアーティファクトに焦点を当てたものは、塗装された実際の画像を検出するのに適しています。
要約(オリジナル)
Detecting AI generated images is a challenging yet essential task. A primary difficulty arises from the detectors tendency to rely on spurious patterns, such as compression artifacts, which can influence its decisions. These issues often stem from specific patterns that the detector associates with the real data distribution, making it difficult to isolate the actual generative traces. We argue that an image should be classified as fake if and only if it contains artifacts introduced by the generative model. Based on this premise, we propose Stay Positive, an algorithm designed to constrain the detectors focus to generative artifacts while disregarding those associated with real data. Experimental results demonstrate that detectors trained with Stay Positive exhibit reduced susceptibility to spurious correlations, leading to improved generalization and robustness to post processing. Additionally, unlike detectors that associate artifacts with real images, those that focus purely on fake artifacts are better at detecting inpainted real images.
arxiv情報
著者 | Anirudh Sundara Rajan,Yong Jae Lee |
発行日 | 2025-02-11 18:59:10+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google