要約
この重要な調査では、説明可能な AI (XAI) と公平性の関係に関する典型的な主張を分析し、これら 2 つの概念間の多次元の関係を解きほぐします。
体系的な文献レビューとその後の定性的な内容分析に基づいて、XAI の公平性上の利点について 175 件の科学論文から 7 つの典型的な主張を特定しました。
私たちはこれらの主張に関して重要な警告を提示し、特定の公平性の要求に対する XAI の可能性と限界に関する将来の議論への入り口を提供します。
重要なのは、主張が (i) 曖昧で単純である、(ii) 規範的根拠が欠如している、または (iii) XAI の実際の機能とあまり一致していないことが多いことに気づきました。
XAI を倫理的な万能薬としてではなく、アルゴリズムの公平性という多次元的で社会技術的な課題にアプローチするための多くのツールの 1 つとして考えることを提案します。
さらに、XAI と公平性について主張する場合、どのような種類の XAI 手法が使用されているのか、それがどのような公平性の要求に言及しているのか、それがどのように正確に公平性を可能にするのか、そして XAI から利益を受ける利害関係者は誰なのかについて、より具体的にする必要性を強調します。
。
要約(オリジナル)
In this critical survey, we analyze typical claims on the relationship between explainable AI (XAI) and fairness to disentangle the multidimensional relationship between these two concepts. Based on a systematic literature review and a subsequent qualitative content analysis, we identify seven archetypal claims from 175 scientific articles on the alleged fairness benefits of XAI. We present crucial caveats with respect to these claims and provide an entry point for future discussions around the potentials and limitations of XAI for specific fairness desiderata. Importantly, we notice that claims are often (i) vague and simplistic, (ii) lacking normative grounding, or (iii) poorly aligned with the actual capabilities of XAI. We suggest to conceive XAI not as an ethical panacea but as one of many tools to approach the multidimensional, sociotechnical challenge of algorithmic fairness. Moreover, when making a claim about XAI and fairness, we emphasize the need to be more specific about what kind of XAI method is used, which fairness desideratum it refers to, how exactly it enables fairness, and who is the stakeholder that benefits from XAI.
arxiv情報
著者 | Luca Deck,Jakob Schoeffer,Maria De-Arteaga,Niklas Kühl |
発行日 | 2024-05-07 15:50:27+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google