要約
アルゴリズムと機械学習 (ML) は、日常生活やいくつかの意思決定プロセスにますます影響を及ぼしており、ML にはスケーラビリティや優れたパフォーマンスにより利点があります。
このようなアプリケーションでは公平性が非常に重要であり、モデルは人種、性別、その他の保護されたグループに基づいて結果を差別すべきではありません。
これは、面接への招待や再犯予測など、非常にデリケートなトピックに影響を与えるモデルにとって特に重要です。
公平性は、バイナリ分類問題と比較して、回帰問題では一般的に研究されていません。
したがって、特にラベル付けのバイアスによる回帰問題における不公平の影響を最小限に抑える、正規化 (FaiReg) に基づくシンプルでありながら効果的な方法を紹介します。
公平性のための 2 つの標準的な方法、つまりデータ バランシングと敵対的トレーニングとの実証的比較に加えて、この方法の理論的分析を示します。
また、ラベル付けとサンプリングのバイアスに同時に対処するために、提示された方法とデータ バランシングを組み合わせたハイブリッド定式化 (FaiRegH) も含めます。
実験は、さまざまなラベル、つまりビッグ 5 の性格予測と面接スクリーニング スコアを使用して、マルチモーダル データセットの第一印象 (FI) に対して実行されます。
結果は、敵対的トレーニングほど元の問題のパフォーマンスを低下させることなく、データバランシングよりも不公平の影響を軽減する優れたパフォーマンスを示しています。
公平性は、等精度 (EA) および統計的パリティ (SP) 制約に基づいて評価されます。
この実験では、複数の保護された変数の公平性を同時に強化するセットアップを示します。
要約(オリジナル)
Algorithms and Machine Learning (ML) are increasingly affecting everyday life and several decision-making processes, where ML has an advantage due to scalability or superior performance. Fairness in such applications is crucial, where models should not discriminate their results based on race, gender, or other protected groups. This is especially crucial for models affecting very sensitive topics, like interview invitation or recidivism prediction. Fairness is not commonly studied for regression problems compared to binary classification problems; hence, we present a simple, yet effective method based on normalisation (FaiReg), which minimises the impact of unfairness in regression problems, especially due to labelling bias. We present a theoretical analysis of the method, in addition to an empirical comparison against two standard methods for fairness, namely data balancing and adversarial training. We also include a hybrid formulation (FaiRegH), merging the presented method with data balancing, in an attempt to face labelling and sampling biases simultaneously. The experiments are conducted on the multimodal dataset First Impressions (FI) with various labels, namely Big-Five personality prediction and interview screening score. The results show the superior performance of diminishing the effects of unfairness better than data balancing, also without deteriorating the performance of the original problem as much as adversarial training. Fairness is evaluated based on the Equal Accuracy (EA) and Statistical Parity (SP) constraints. The experiments present a setup that enhances the fairness for several protected variables simultaneously.
arxiv情報
著者 | Mostafa M. Amin,Björn W. Schuller |
発行日 | 2024-08-20 15:31:45+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google