要約
さまざまな分野で人工知能 (AI) システムが広く使用されることで、特に一か八かのシナリオにおいて、アルゴリズムの公平性に関連する問題がますます浮き彫りになっています。
したがって、AI システムの公平性をどのように改善できるか、またこのプロセスを支援するためにどのような手段が利用できるかについての重要な検討は期限が過ぎています。
多くの研究者や政策立案者は、Explainable AI (XAI) が AI システムの公平性を高める有望な方法であると考えています。
ただし、さまざまな要望を表す XAI 手法と公平性の概念は多種多様であり、XAI と公平性の間の正確な関係はほとんど不明瞭なままです。
さらに、アルゴリズムの公平性を高めるためのさまざまな手段が、AI システムのライフサイクル全体のさまざまな時点で適用される可能性があります。
しかし、現時点では、AI ライフサイクルに沿った公平性の要望を一貫してマッピングしたものはありません。
このペーパーでは、これら両方のギャップを埋めることを目指しました。公平性に関する 8 つの要望を抽出し、それらを AI ライフサイクルに沿ってマッピングし、XAI がそれぞれの課題にどのように対処できるかについて説明します。
私たちは、実用的なアプリケーションのためのオリエンテーションを提供し、特にこれらの公平性の要求に焦点を当てた XAI 研究を刺激したいと考えています。
要約(オリジナル)
The widespread use of artificial intelligence (AI) systems across various domains is increasingly highlighting issues related to algorithmic fairness, especially in high-stakes scenarios. Thus, critical considerations of how fairness in AI systems might be improved, and what measures are available to aid this process, are overdue. Many researchers and policymakers see explainable AI (XAI) as a promising way to increase fairness in AI systems. However, there is a wide variety of XAI methods and fairness conceptions expressing different desiderata, and the precise connections between XAI and fairness remain largely nebulous. Besides, different measures to increase algorithmic fairness might be applicable at different points throughout an AI system’s lifecycle. Yet, there currently is no coherent mapping of fairness desiderata along the AI lifecycle. In this paper, we set out to bridge both these gaps: We distill eight fairness desiderata, map them along the AI lifecycle, and discuss how XAI could help address each of them. We hope to provide orientation for practical applications and to inspire XAI research specifically focused on these fairness desiderata.
arxiv情報
著者 | Luca Deck,Astrid Schomäcker,Timo Speith,Jakob Schöffer,Lena Kästner,Niklas Kühl |
発行日 | 2024-04-30 08:35:46+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google