Benchmarking the Fairness of Image Upsampling Methods

要約

近年、画像やビデオなどの合成メディアを作成するための深層生成モデルが急速に開発されています。
これらのモデルを日常業務に実際に応用することは魅力的ですが、その公平性に関して内在するリスクを評価することが重要です。
この研究では、条件付き生成モデルのパフォーマンスと公平性をベンチマークするための包括的なフレームワークを紹介します。
私たちは、モデルの公平性と多様性を評価するために、監視された公平性の対応物$\unicode{x2013}$からインスピレーションを得た一連の指標$\unicode{x2013}$を開発しました。
画像アップサンプリングの特定のアプリケーションに焦点を当て、最新のさまざまなアップサンプリング方法をカバーするベンチマークを作成します。
ベンチマークの一部として、一般的な大規模な顔データセットの人種分布を再現する FairFace のサブセットである UnfairFace を導入します。
私たちの実証研究は、不偏のトレーニング セットを使用することの重要性を強調し、データセットの不均衡に対するアルゴリズムの対応方法のばらつきを明らかにしています。
驚くべきことに、検討したどの方法も統計的に公平で多様な結果を生み出さないことがわかりました。
すべての実験は、当社が提供するリポジトリを使用して再現できます。

要約(オリジナル)

Recent years have witnessed a rapid development of deep generative models for creating synthetic media, such as images and videos. While the practical applications of these models in everyday tasks are enticing, it is crucial to assess the inherent risks regarding their fairness. In this work, we introduce a comprehensive framework for benchmarking the performance and fairness of conditional generative models. We develop a set of metrics$\unicode{x2013}$inspired by their supervised fairness counterparts$\unicode{x2013}$to evaluate the models on their fairness and diversity. Focusing on the specific application of image upsampling, we create a benchmark covering a wide variety of modern upsampling methods. As part of the benchmark, we introduce UnfairFace, a subset of FairFace that replicates the racial distribution of common large-scale face datasets. Our empirical study highlights the importance of using an unbiased training set and reveals variations in how the algorithms respond to dataset imbalances. Alarmingly, we find that none of the considered methods produces statistically fair and diverse results. All experiments can be reproduced using our provided repository.

arxiv情報

著者 Mike Laszkiewicz,Imant Daunhawer,Julia E. Vogt,Asja Fischer,Johannes Lederer
発行日 2024-04-26 11:50:10+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG パーマリンク