A Comprehensive Analysis of AI Biases in DeepFake Detection With Massively Annotated Databases

要約

近年、ディープフェイクによる画像や動画の改ざんは、セキュリティや社会にとって深刻な懸念となっています。
ディープフェイク データを確実に検出するために、多くの検出モデルとデータセットが提案されています。
しかし、これらのモデルとトレーニング データベースに偏りがあるため、ディープフェイク検出器が失敗する可能性があるという懸念が高まっています。
この研究では、(a) 5 つの人気のあるディープフェイク データセットに対して 47 の異なる属性の大規模な人口統計的および非人口統計的属性のアノテーションを提供し、(b) 3 つの州の AI バイアスを包括的に分析することにより、公開ディープフェイク データセットによって引き起こされるバイアス問題を調査します。
これらのデータセット上の最先端のディープフェイク検出バックボーン モデル。
この調査では、人口統計情報 (年齢、性別、民族性) および非人口統計情報 (髪、肌、アクセサリーなど) を含む、(6,500 万を超えるラベルからの) 多種多様な特徴的な属性が検出パフォーマンスに及ぼす影響を分析します。
この結果は、調査されたデータベースには多様性が欠けていることを示し、さらに重要なことに、利用されたディープフェイク検出バックボーン モデルが、調査された多くの属性に強く偏っていることを示しています。
偏ったデータセットを使用してトレーニングされたディープフェイク検出バックボーン手法は、誤った検出結果を出力する可能性があり、その結果、一般性、公平性、セキュリティの問題が発生します。
この研究の結果と注釈データベースが、将来のディープフェイク検出技術におけるバイアスの評価と軽減に役立つことを願っています。
アノテーション データセットと対応するコードは公開されています。

要約(オリジナル)

In recent years, image and video manipulations with Deepfake have become a severe concern for security and society. Many detection models and datasets have been proposed to detect Deepfake data reliably. However, there is an increased concern that these models and training databases might be biased and, thus, cause Deepfake detectors to fail. In this work, we investigate the bias issue caused by public Deepfake datasets by (a) providing large-scale demographic and non-demographic attribute annotations of 47 different attributes for five popular Deepfake datasets and (b) comprehensively analysing AI-bias of three state-of-the-art Deepfake detection backbone models on these datasets. The investigation analyses the influence of a large variety of distinctive attributes (from over 65M labels) on the detection performance, including demographic (age, gender, ethnicity) and non-demographic (hair, skin, accessories, etc.) information. The results indicate that investigated databases lack diversity and, more importantly, show that the utilised Deepfake detection backbone models are strongly biased towards many investigated attributes. The Deepfake detection backbone methods, which are trained with biased datasets, might output incorrect detection results, thereby leading to generalisability, fairness, and security issues. We hope that the findings of this study and the annotation databases will help to evaluate and mitigate bias in future Deepfake detection techniques. The annotation datasets and the corresponding code are publicly available.

arxiv情報

著者 Ying Xu,Philipp Terhörst,Kiran Raja,Marius Pedersen
発行日 2023-09-20 16:42:49+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.CY, cs.LG パーマリンク