TrueFake: A Real World Case Dataset of Last Generation Fake Images also Shared on Social Networks

要約

AI生成された合成メディアは、実際のシナリオでますます使用されており、多くの場合、圧縮やその他の処理が偽の検出キューを分解できるソーシャルメディアプラットフォームを通じて誤った情報とプロパガンダを広めることを目的としています。
現在、多くの法医学ツールは、これらの野生の課題を説明できません。
この作業では、TrueFakeを紹介します。これは、トップノッチ生成技術を含む600,000の画像の大規模なベンチマークデータセットであり、3つの異なるソーシャルネットワークを介して共有しています。
このデータセットにより、非常に現実的で挑戦的な条件の下で、最先端の偽画像検出器を厳密に評価できます。
広範な実験を通じて、ソーシャルメディアの共有が検出パフォーマンスにどのように影響するかを分析し、現在の最も効果的な検出およびトレーニング戦略を特定します。
私たちの調査結果は、実際の使用を反映する条件で法医学モデルを評価する必要性を強調しています。

要約(オリジナル)

AI-generated synthetic media are increasingly used in real-world scenarios, often with the purpose of spreading misinformation and propaganda through social media platforms, where compression and other processing can degrade fake detection cues. Currently, many forensic tools fail to account for these in-the-wild challenges. In this work, we introduce TrueFake, a large-scale benchmarking dataset of 600,000 images including top notch generative techniques and sharing via three different social networks. This dataset allows for rigorous evaluation of state-of-the-art fake image detectors under very realistic and challenging conditions. Through extensive experimentation, we analyze how social media sharing impacts detection performance, and identify current most effective detection and training strategies. Our findings highlight the need for evaluating forensic models in conditions that mirror real-world use.

arxiv情報

著者 Stefano Dell’Anna,Andrea Montibeller,Giulia Boato
発行日 2025-04-29 11:33:52+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.MM パーマリンク