Differential Adjusted Parity for Learning Fair Representations

要約

公正で公平な機械学習モデルの開発は、人工知能の分野の研究者にとって継続的な目的のままです。
差動調整済みパリティ(DAP)損失を導入して、公平な有益な表現を生成します。
調整されたパリティメトリックの微分可能なバリアントを利用して、統一された目的関数を作成します。
ダウンストリームタスク分類の精度と、敏感な機能ドメイン全体でのその矛盾を組み合わせることにより、パフォーマンスを向上させ、バイアスを緩和するための単一のツールを提供します。
このアプローチの重要な要素は、ソフトバランスの取れた精度の使用です。
以前の非逆数アプローチとは対照的に、DAPは、すべての敏感なドメインで等しく低いパフォーマンスを発揮することでメトリックが満たされる縮退に苦しむことはありません。
分析の下流のタスクの精度と公平性に関するいくつかの敵対モデルよりも優れています。
具体的には、これらのメトリックで最適なパフォーマンスの敵対的アプローチと比較した場合、それは人口統計のパリティ、均等化オッズ、敏感な機能の精度をそれぞれ22.5 \%、44.1 \%、および40.1 \%で改善します。
全体として、DAPの損失とそれに関連するメトリックは、より公正な機械学習モデルを作成する上で重要な役割を果たすことができます。

要約(オリジナル)

The development of fair and unbiased machine learning models remains an ongoing objective for researchers in the field of artificial intelligence. We introduce the Differential Adjusted Parity (DAP) loss to produce unbiased informative representations. It utilises a differentiable variant of the adjusted parity metric to create a unified objective function. By combining downstream task classification accuracy and its inconsistency across sensitive feature domains, it provides a single tool to increase performance and mitigate bias. A key element in this approach is the use of soft balanced accuracies. In contrast to previous non-adversarial approaches, DAP does not suffer a degeneracy where the metric is satisfied by performing equally poorly across all sensitive domains. It outperforms several adversarial models on downstream task accuracy and fairness in our analysis. Specifically, it improves the demographic parity, equalized odds and sensitive feature accuracy by as much as 22.5\%, 44.1\% and 40.1\%, respectively, when compared to the best performing adversarial approaches on these metrics. Overall, the DAP loss and its associated metric can play a significant role in creating more fair machine learning models.

arxiv情報

著者 Bucher Sahyouni,Matthew Vowels,Liqun Chen,Simon Hadfield
発行日 2025-04-09 13:19:22+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク