Causal Fairness for Outcome Control

要約

社会が AI ベースの意思決定インフラストラクチャに移行するにつれて、かつては人間が管理していた意思決定の数が増え続け、現在は自動システムに委任されています。
このような発展により社会のさまざまな部分がより効率的になったとしても、大量の証拠は、そのような自動化された意思決定システムを公正かつ公平なものにするために、つまり性別などのデリケートな属性を考慮に入れるために多大な注意を払う必要があることを示唆しています。
、人種、宗教。
この論文では、自動化システムが公正かつ公平でありながら結果変数 $Y$ を最適化することを目的とした、結果制御と呼ばれる特定の意思決定タスクを研究します。
このような環境への関心は、刑事司法や福祉に関連する介入から、臨床上の意思決定や公衆衛生に至るまで多岐にわたります。
この論文では、最初に因果関係のレンズを通して利益の概念を分析します。利益という概念は、反事実的に言えば、別の否定的な決定と対比したときに、肯定的な決定から特定の個人がどれだけ利益を受けるかを捉えます。
私たちは、意思決定における公平性の最低限の要件と見なすことができる利益の公平性の概念を導入し、それを満たすためのアルゴリズムを開発します。
次に、利点自体が保護された属性の影響を受ける可能性があることに注目し、これを分析するために使用できる因果関係ツールを提案します。
最後に、給付における保護された属性のバリエーションの一部が差別的であるとみなされる場合、給付の公平性の概念を強化する必要がある可能性があり、これにより因果関係による利益の公平性の概念を明確にすることになります。
この概念を使用して、決定プロセスにおける因果的公平性を確認しながら $Y$ を最大化できる新しい最適化手順を開発します。

要約(オリジナル)

As society transitions towards an AI-based decision-making infrastructure, an ever-increasing number of decisions once under control of humans are now delegated to automated systems. Even though such developments make various parts of society more efficient, a large body of evidence suggests that a great deal of care needs to be taken to make such automated decision-making systems fair and equitable, namely, taking into account sensitive attributes such as gender, race, and religion. In this paper, we study a specific decision-making task called outcome control in which an automated system aims to optimize an outcome variable $Y$ while being fair and equitable. The interest in such a setting ranges from interventions related to criminal justice and welfare, all the way to clinical decision-making and public health. In this paper, we first analyze through causal lenses the notion of benefit, which captures how much a specific individual would benefit from a positive decision, counterfactually speaking, when contrasted with an alternative, negative one. We introduce the notion of benefit fairness, which can be seen as the minimal fairness requirement in decision-making, and develop an algorithm for satisfying it. We then note that the benefit itself may be influenced by the protected attribute, and propose causal tools which can be used to analyze this. Finally, if some of the variations of the protected attribute in the benefit are considered as discriminatory, the notion of benefit fairness may need to be strengthened, which leads us to articulating a notion of causal benefit fairness. Using this notion, we develop a new optimization procedure capable of maximizing $Y$ while ascertaining causal fairness in the decision process.

arxiv情報

著者 Drago Plecko,Elias Bareinboim
発行日 2023-06-08 09:31:18+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, stat.ML パーマリンク