Improving Fairness in Deepfake Detection

要約

近年、効果的なディープフェイク検出器が開発されているにもかかわらず、最近の研究では、これらの検出器のトレーニングに使用されるデータに偏りがあり、人種や性別によって検出精度に差が生じる可能性があることが実証されています。
その結果、さまざまなグループが不当にターゲットにされたり、検出から除外されたりする可能性があり、検出されないディープフェイクによって世論が操作され、ディープフェイク検出モデルの信頼が損なわれる可能性があります。
既存の研究はディープフェイク検出器の公平性を評価することに焦点を当ててきましたが、私たちの知る限り、アルゴリズムレベルでディープフェイク検出の公平性を促進する方法は開発されていません。
この研究では、人口統計情報 (人種や性別の注釈など) が利用可能な設定と、この情報が存在しない場合の両方を処理する新しい損失関数を提案することにより、ディープフェイク検出の公平性を向上させる最初の試みを行います。
基本的に、両方のアプローチを使用して、多くの既存のディープフェイク検出器を公平性を促進する検出器に変換できます。
4 つのディープフェイク データセットと 5 つのディープフェイク検出器に関する広範な実験により、ディープフェイク検出の公平性を向上させる際のアプローチの有効性と柔軟性が実証されました。
私たちのコードは https://github.com/littlejuyan/DF_Fairness で入手できます。

要約(オリジナル)

Despite the development of effective deepfake detectors in recent years, recent studies have demonstrated that biases in the data used to train these detectors can lead to disparities in detection accuracy across different races and genders. This can result in different groups being unfairly targeted or excluded from detection, allowing undetected deepfakes to manipulate public opinion and erode trust in a deepfake detection model. While existing studies have focused on evaluating fairness of deepfake detectors, to the best of our knowledge, no method has been developed to encourage fairness in deepfake detection at the algorithm level. In this work, we make the first attempt to improve deepfake detection fairness by proposing novel loss functions that handle both the setting where demographic information (eg, annotations of race and gender) is available as well as the case where this information is absent. Fundamentally, both approaches can be used to convert many existing deepfake detectors into ones that encourages fairness. Extensive experiments on four deepfake datasets and five deepfake detectors demonstrate the effectiveness and flexibility of our approach in improving deepfake detection fairness. Our code is available at https://github.com/littlejuyan/DF_Fairness.

arxiv情報

著者 Yan Ju,Shu Hu,Shan Jia,George H. Chen,Siwei Lyu
発行日 2023-11-08 17:10:49+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.CY, cs.LG パーマリンク