Rethinking Fairness for Human-AI Collaboration

要約

アルゴリズムの公平性に対する既存のアプローチは、人間の意思決定者がアルゴリズムの決定に完全に従った場合に公平な結果を確保することを目的としています。
ただし、人間と AI のコラボレーションにおいて、アルゴリズムに完全に準拠することが現実になることはめったになく、望ましい結果ですらありません。
しかし、最近の研究では、公正なアルゴリズムに選択的に従うと、以前の人間の政策と比べて差別が増幅される可能性があることが示されています。
その結果、公平な結果を確保するには、意思決定者の(事前に未知の)コンプライアンス パターンに対する堅牢性を確保する、根本的に異なるアルゴリズム設計原則が必要になります。
私たちは、人間のコンプライアンス パターンに関係なく、意思決定の公平性を (弱いですが) 改善することが保証される、コンプライアンスに強く公平なアルゴリズムによる推奨事項の概念を定義します。
私たちは、パフォーマンスを向上させ、コンプライアンスを向上させ、堅牢で公正なポリシーを特定するためのシンプルな最適化戦略を提案します。
しかし、我々は、単独で公平であり、コンプライアンスに対して堅牢な公平性を同時に持ち、人間のポリシーよりも正確なアルゴリズムによる推奨事項を設計することは不可能である可能性があることを示しています。
したがって、私たちの目標が人間と AI のコラボレーションの公平性と正確性を向上させることである場合、従来の公平性の制約を強制することは望ましくない可能性があります。

要約(オリジナル)

Existing approaches to algorithmic fairness aim to ensure equitable outcomes if human decision-makers comply perfectly with algorithmic decisions. However, perfect compliance with the algorithm is rarely a reality or even a desirable outcome in human-AI collaboration. Yet, recent studies have shown that selective compliance with fair algorithms can amplify discrimination relative to the prior human policy. As a consequence, ensuring equitable outcomes requires fundamentally different algorithmic design principles that ensure robustness to the decision-maker’s (a priori unknown) compliance pattern. We define the notion of compliance-robustly fair algorithmic recommendations that are guaranteed to (weakly) improve fairness in decisions, regardless of the human’s compliance pattern. We propose a simple optimization strategy to identify the best performance-improving compliance-robustly fair policy. However, we show that it may be infeasible to design algorithmic recommendations that are simultaneously fair in isolation, compliance-robustly fair, and more accurate than the human policy; thus, if our goal is to improve the equity and accuracy of human-AI collaboration, it may not be desirable to enforce traditional fairness constraints.

arxiv情報

著者 Haosen Ge,Hamsa Bastani,Osbert Bastani
発行日 2023-10-05 16:21:42+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML パーマリンク