要約
近年、Deepfake による画像や動画の操作は、セキュリティと社会にとって深刻な問題となっています。
ディープフェイク データを確実に検出するために、多くの検出モデルとデータセットが提案されています。
ただし、これらのモデルとトレーニング データベースに偏りがあり、ディープフェイク検出器が失敗する可能性があるという懸念が高まっています。
この作業では、(a) 5 つの人気のあるディープフェイク データセットに対して 47 の異なる属性の大規模な人口統計学的および非人口統計学的属性アノテーションを提供し、(b) 3 つの状態の AI バイアスを包括的に分析することにより、パブリック ディープフェイク データセットによって引き起こされるバイアスの問題を調査します。
-最先端の Deepfake 検出バックボーン モデルをこれらのデータセットに適用します。
この調査では、人口統計情報 (年齢、性別、民族性) および非人口統計情報 (髪、肌、アクセサリーなど) を含む、さまざまな特徴的な属性 (6,500 万を超えるラベルから) が検出パフォーマンスに与える影響を分析します。
結果は、調査されたデータベースには多様性が欠けていることを示しており、さらに重要なことに、利用されているディープフェイク検出バックボーン モデルが、調査された多くの属性に強く偏っていることを示しています。
偏ったデータセットでトレーニングされた Deepfake 検出バックボーン メソッドは、誤った検出結果を出力する可能性があり、その結果、一般化可能性、公平性、およびセキュリティの問題が発生します。
この調査結果と注釈データベースが、将来のディープフェイク検出技術におけるバイアスの評価と軽減に役立つことを願っています。
注釈データセットは公開されています。
要約(オリジナル)
In recent years, image and video manipulations with Deepfake have become a severe concern for security and society. Many detection models and datasets have been proposed to detect Deepfake data reliably. However, there is an increased concern that these models and training databases might be biased and, thus, cause Deepfake detectors to fail. In this work, we investigate the bias issue caused by public Deepfake datasets by (a) providing large-scale demographic and non-demographic attribute annotations of 47 different attributes for five popular Deepfake datasets and (b) comprehensively analysing AI-bias of three state-of-the-art Deepfake detection backbone models on these datasets. The investigation analyses the influence of a large variety of distinctive attributes (from over 65M labels) on the detection performance, including demographic (age, gender, ethnicity) and non-demographic (hair, skin, accessories, etc.) information. The results indicate that investigated databases lack diversity and, more importantly, show that the utilised Deepfake detection backbone models are strongly biased towards many investigated attributes. The Deepfake detection backbone methods, which are trained with biased datasets, might output incorrect detection results, thereby leading to generalisability, fairness, and security issues. We hope that the findings of this study and the annotation databases will help to evaluate and mitigate bias in future Deepfake detection techniques. The annotation datasets are publicly available.
arxiv情報
著者 | Ying Xu,Philipp Terhörst,Kiran Raja,Marius Pedersen |
発行日 | 2023-03-23 17:56:52+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google