要約
近年、効果的なディープフェイク検出モデルが開発されているにもかかわらず、いくつかの最近の研究では、ディープフェイク検出モデルの開発に利用されるトレーニング データに偏りがあり、人種や性別が異なる人口統計グループのパフォーマンスが不公平になる可能性があることが実証されています。
その結果、これらのグループが不当に標的にされたり、検出から除外されたりする可能性があり、誤って分類されたディープフェイクによって世論が操作され、モデルへの信頼が損なわれる可能性があります。
これらの研究は、ディープフェイク検出の不公平性の特定と評価に焦点を当てていますが、ディープフェイク検出の公平性の問題にアルゴリズム レベルで対処する方法は開発されていません。
この研究では、人口動態要因にとらわれない、または認識した方法で公平なディープフェイク検出モデルをトレーニングするための新しい損失関数を提案することにより、ディープフェイク検出の公平性を向上させる最初の試みを行います。
4 つのディープフェイク データセットと 5 つのディープフェイク検出器に関する広範な実験により、ディープフェイク検出の公平性を向上させる際のアプローチの有効性と柔軟性が実証されました。
要約(オリジナル)
Despite the development of effective deepfake detection models in recent years, several recent studies have demonstrated that biases in the training data utilized to develop deepfake detection models can lead to unfair performance for demographic groups of different races and/or genders. Such can result in these groups being unfairly targeted or excluded from detection, allowing misclassified deepfakes to manipulate public opinion and erode trust in the model. While these studies have focused on identifying and evaluating the unfairness in deepfake detection, no methods have been developed to address the fairness issue of deepfake detection at the algorithm level. In this work, we make the first attempt to improve deepfake detection fairness by proposing novel loss functions to train fair deepfake detection models in ways that are agnostic or aware of demographic factors. Extensive experiments on four deepfake datasets and five deepfake detectors demonstrate the effectiveness and flexibility of our approach in improving the deepfake detection fairness.
arxiv情報
著者 | Yan Ju,Shu Hu,Shan Jia,George H. Chen,Siwei Lyu |
発行日 | 2023-10-24 15:33:38+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google