要約
画像生成のために拡散モデルの顕著な使いやすさにより、オンラインで合成コンテンツが急増しました。
これらのモデルはしばしば正当な目的で採用されていますが、誤った情報やヘイトスピーチをサポートする偽の画像を生成するためにも使用されます。
その結果、そのようなモデルによって画像が生成されたかどうかを検出できる堅牢なツールを開発することが重要です。
ただし、多くの現在の検出方法には、トレーニングに大量のサンプル画像が必要です。
残念ながら、フィールドの急速な進化により、既存のデータセットはしばしば限られた範囲のモデルのみをカバーし、すぐに時代遅れになります。
この作業では、25の拡散モデルからの画像を含む包括的なデータセットであるDragonを紹介し、最近の進歩と古い、確立されたアーキテクチャの両方に及びます。
データセットには、多様な被験者を表すさまざまな画像が含まれています。
画像のリアリズムを強化するために、標準的な品質メトリックの改善によって証明されるように、大規模な言語モデルを活用して入力プロンプトを拡張し、より多様で高品質の出力を生成するシンプルで効果的なパイプラインを提案します。
データセットは、さまざまな研究シナリオを伴うために、複数のサイズ(非常に小さい範囲から大規模なものまで)で提供されます。
Dragonは、合成含有量の検出および帰属技術の開発と評価において、法医学コミュニティをサポートするように設計されています。
さらに、データセットには、新しく開発された方法のパフォーマンスを評価するためのベンチマークとして機能することを目的とした専用のテストセットが添付されています。
要約(オリジナル)
The remarkable ease of use of diffusion models for image generation has led to a proliferation of synthetic content online. While these models are often employed for legitimate purposes, they are also used to generate fake images that support misinformation and hate speech. Consequently, it is crucial to develop robust tools capable of detecting whether an image has been generated by such models. Many current detection methods, however, require large volumes of sample images for training. Unfortunately, due to the rapid evolution of the field, existing datasets often cover only a limited range of models and quickly become outdated. In this work, we introduce DRAGON, a comprehensive dataset comprising images from 25 diffusion models, spanning both recent advancements and older, well-established architectures. The dataset contains a broad variety of images representing diverse subjects. To enhance image realism, we propose a simple yet effective pipeline that leverages a large language model to expand input prompts, thereby generating more diverse and higher-quality outputs, as evidenced by improvements in standard quality metrics. The dataset is provided in multiple sizes (ranging from extra-small to extra-large) to accomodate different research scenarios. DRAGON is designed to support the forensic community in developing and evaluating detection and attribution techniques for synthetic content. Additionally, the dataset is accompanied by a dedicated test set, intended to serve as a benchmark for assessing the performance of newly developed methods.
arxiv情報
著者 | Giulia Bertazzini,Daniele Baracchi,Dasara Shullani,Isao Echizen,Alessandro Piva |
発行日 | 2025-05-16 13:50:34+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google