要約
平等な個人が平等に扱われる場合、決定は公平であると定義でき、平等でない場合は不平等に扱われます。
この定義を採用すると、自動化された意思決定システムにおける不公平性を軽減する機械学習モデルを設計するタスクには、保護された属性を導入する際の因果的思考を含める必要があります。
最近の提案に従って、私たちは、保護された属性がターゲットに対して (直接的または間接的) 因果関係を持たない、架空の規範的に望ましい (FiND) 世界において個人が平等であれば、個人は規範的に平等であると定義します。
我々は、この FiND 世界の推定量と推定のためのワーピング法を定義するために、ランクを保存する介入分布を提案します。
メソッドと結果として得られるモデルの両方の評価基準が提示され、シミュレーションと経験的データを通じて検証されます。
これにより、ワーピング アプローチが最も差別されている個人を効果的に特定し、不公平を軽減できることがわかります。
要約(オリジナル)
A decision can be defined as fair if equal individuals are treated equally and unequals unequally. Adopting this definition, the task of designing machine learning models that mitigate unfairness in automated decision-making systems must include causal thinking when introducing protected attributes. Following a recent proposal, we define individuals as being normatively equal if they are equal in a fictitious, normatively desired (FiND) world, where the protected attribute has no (direct or indirect) causal effect on the target. We propose rank-preserving interventional distributions to define an estimand of this FiND world and a warping method for estimation. Evaluation criteria for both the method and resulting model are presented and validated through simulations and empirical data. With this, we show that our warping approach effectively identifies the most discriminated individuals and mitigates unfairness.
arxiv情報
著者 | Ludwig Bothmann,Susanne Dandl,Michael Schomaker |
発行日 | 2023-07-24 13:46:50+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google