要約
合成画像の生成は新たな機会をもたらしましたが、プライバシー、信頼性、およびセキュリティに関する脅威も生み出しました。
違法行為を防止するためには、偽の画像を検出することが最も重要であり、以前の研究では、生成モデルが合成画像に独自のパターンを残し、それを悪用して検出できることが示されています。
ただし、トレーニング中に見たことのないジェネレーターに直面すると、最先端の検出器でさえ困難に遭遇するため、一般化の基本的な問題は残ります。
現実世界の障害に直面した場合の合成画像検出器の一般化可能性と堅牢性を評価するために、このペーパーでは、さまざまなジェネレーター、オブジェクト カテゴリ、および現実世界の課題で構成される ArtiFact という名前の大規模なデータセットを紹介します。
さらに、フィルターストライド削減戦略と組み合わせた提案されたマルチクラス分類スキームは、ソーシャルプラットフォームの障害に対処し、目に見えるジェネレーターと見えないジェネレーターの両方から合成画像を効果的に検出します。
提案されたソリューションは、テスト 1 で 8.34%、テスト 2 で 1.26%、テスト 3 で 15.08% という点で、ICIP 2022 の IEEE VIP カップ チャレンジで他のトップ チームを大幅に上回っています (精度メトリックで測定)。
要約(オリジナル)
Synthetic image generation has opened up new opportunities but has also created threats in regard to privacy, authenticity, and security. Detecting fake images is of paramount importance to prevent illegal activities, and previous research has shown that generative models leave unique patterns in their synthetic images that can be exploited to detect them. However, the fundamental problem of generalization remains, as even state-of-the-art detectors encounter difficulty when facing generators never seen during training. To assess the generalizability and robustness of synthetic image detectors in the face of real-world impairments, this paper presents a large-scale dataset named ArtiFact, comprising diverse generators, object categories, and real-world challenges. Moreover, the proposed multi-class classification scheme, combined with a filter stride reduction strategy addresses social platform impairments and effectively detects synthetic images from both seen and unseen generators. The proposed solution significantly outperforms other top teams by 8.34% on Test 1, 1.26% on Test 2, and 15.08% on Test 3 in the IEEE VIP Cup challenge at ICIP 2022, as measured by the accuracy metric.
arxiv情報
著者 | Md Awsafur Rahman,Bishmoy Paul,Najibul Haque Sarker,Zaber Ibn Abdul Hakim,Shaikh Anowarul Fattah |
発行日 | 2023-02-24 13:41:35+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google