要約
結果的な意思決定プロセスにおける機械学習モデルの使用が増加していることにより、これらのシステムの公平性に関する研究が促進されています。
処理中および処理後の設定におけるグループの公平性を研究するために重要な研究が行われてきましたが、これらの結果を前処理領域に理論的に結び付けるものはほとんどありませんでした。
この論文では、下流モデルでグループの公平性を達成することは、ランダム化応答フレームワークで応答変数を変更するための最適な設計行列を見つけることとして定式化できることを提案します。
我々は、グループの公平性の尺度が最適なモデルのユーティリティで直接制御できることを示し、優れた下流モデルのユーティリティと公平性を生み出す FairRR と呼ばれる前処理アルゴリズムを提案します。
要約(オリジナル)
The increasing usage of machine learning models in consequential decision-making processes has spurred research into the fairness of these systems. While significant work has been done to study group fairness in the in-processing and post-processing setting, there has been little that theoretically connects these results to the pre-processing domain. This paper proposes that achieving group fairness in downstream models can be formulated as finding the optimal design matrix in which to modify a response variable in a Randomized Response framework. We show that measures of group fairness can be directly controlled for with optimal model utility, proposing a pre-processing algorithm called FairRR that yields excellent downstream model utility and fairness.
arxiv情報
著者 | Xianli Zeng,Joshua Ward,Guang Cheng |
発行日 | 2024-03-12 16:08:47+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google