要約
急速に進歩している説明可能な人工知能 (XAI) の分野は、AI システムをより透明で理解しやすくする技術の開発に大きな関心を集めています。
それにもかかわらず、現実世界の状況では、説明可能性の方法とその評価戦略には多くの制限が存在します。さらに、責任ある AI の範囲は単なる説明可能性を超えています。
このペーパーでは、これらの制限を調査し、プライバシー、公平性、異議申し立て可能性などの他の重要な側面を考慮する際に、責任ある AI の境界コンテキストでその制限が与える影響について議論します。
要約(オリジナル)
The rapidly advancing domain of Explainable Artificial Intelligence (XAI) has sparked significant interests in developing techniques to make AI systems more transparent and understandable. Nevertheless, in real-world contexts, the methods of explainability and their evaluation strategies present numerous limitations.Moreover, the scope of responsible AI extends beyond just explainability. In this paper, we explore these limitations and discuss their implications in a boarder context of responsible AI when considering other important aspects, including privacy, fairness and contestability.
arxiv情報
著者 | Yulu Pi |
発行日 | 2023-09-07 11:08:14+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google