要約
クラスタリング アルゴリズムは、既存の格差を意図せず拡大または強化し、不公平な表現や偏った意思決定につながる可能性があります。
現在の公平なクラスタリング手法は、基礎となる因果メカニズムに関する情報をまったく捕捉しない公平性の概念に依存しています。
我々は、非因果的公平性の概念を最適化すると、逆説的に、因果的観点から直接的な差別効果を誘発する可能性があることを示します。
教師なし学習における公平性に対するより微妙なアプローチを提供するために、因果的公平性メトリクスを組み込んだクラスタリング アプローチを紹介します。
私たちのアプローチにより、最小限に抑えるべき因果的公平性の指標を指定することが可能になります。
不当なバイアスが存在することが知られているデータセットを使用して、私たちの方法論の有効性を実証します。
要約(オリジナル)
Clustering algorithms may unintentionally propagate or intensify existing disparities, leading to unfair representations or biased decision-making. Current fair clustering methods rely on notions of fairness that do not capture any information on the underlying causal mechanisms. We show that optimising for non-causal fairness notions can paradoxically induce direct discriminatory effects from a causal standpoint. We present a clustering approach that incorporates causal fairness metrics to provide a more nuanced approach to fairness in unsupervised learning. Our approach enables the specification of the causal fairness metrics that should be minimised. We demonstrate the efficacy of our methodology using datasets known to harbour unfair biases.
arxiv情報
著者 | Fritz Bayer,Drago Plecko,Niko Beerenwinkel,Jack Kuipers |
発行日 | 2023-12-14 15:58:03+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google