Fairness in Ranking: Robustness through Randomization without the Protected Attribute

要約

機械学習の公平性、特に分類問題に関連して、大きな関心が寄せられています。
オンライン広告、推奨システム、人事自動化などのランキング関連の問題では、公平性に関して多くの取り組みが残されています。
2 つの問題が発生します。まず、保護された属性は多くのアプリケーションで使用できない可能性があります。
第 2 に、ランキングの公平性の尺度は複数あり、ランキングの公平性の 1 つの尺度を利用した最適化ベースの方法では、他の尺度に関して不公平なランキングが生成される可能性があります。
この研究では、保護された属性の可用性を必要としない、後処理ランキングのためのランダム化された方法を提案します。
広範な数値研究で、P 公平性に関する手法のロバスト性と、ベースライン ランキングからの正規化割引累積ゲイン (NDCG) に関する有効性を示し、以前に提案された手法を改善しました。

要約(オリジナル)

There has been great interest in fairness in machine learning, especially in relation to classification problems. In ranking-related problems, such as in online advertising, recommender systems, and HR automation, much work on fairness remains to be done. Two complications arise: first, the protected attribute may not be available in many applications. Second, there are multiple measures of fairness of rankings, and optimization-based methods utilizing a single measure of fairness of rankings may produce rankings that are unfair with respect to other measures. In this work, we propose a randomized method for post-processing rankings, which do not require the availability of the protected attribute. In an extensive numerical study, we show the robustness of our methods with respect to P-Fairness and effectiveness with respect to Normalized Discounted Cumulative Gain (NDCG) from the baseline ranking, improving on previously proposed methods.

arxiv情報

著者 Andrii Kliachkin,Eleni Psaroudaki,Jakub Marecek,Dimitris Fotakis
発行日 2024-03-28 13:50:24+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CY, cs.LG パーマリンク