要約
説明可能な人工知能 (XAI) 技術は、複雑なモデルとそれに関連する予測を理解し、信頼を得るという目的で、多くの AI システムのユーザーによって頻繁に必要とされます。
開発中の特定のタスクには適していますが、機械学習システムへの信頼を高めるために組織が採用すると、意図しない結果が生じます。
このホワイト ペーパーでは、展開における XAI の制限について説明し、厳密な検証と共に透明性を確保することが、AI システムの信頼を得るのに適していると結論付けています。
要約(オリジナル)
Explainable Artificial Intelligence (XAI) techniques are frequently required by users in many AI systems with the goal of understanding complex models, their associated predictions, and gaining trust. While suitable for some specific tasks during development, their adoption by organisations to enhance trust in machine learning systems has unintended consequences. In this paper we discuss XAI’s limitations in deployment and conclude that transparency alongside with rigorous validation are better suited to gaining trust in AI systems.
arxiv情報
著者 | Savio Rozario,George Čevora |
発行日 | 2023-03-21 14:16:06+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google