A New Perspective on Evaluation Methods for Explainable Artificial Intelligence (XAI)

要約

要件エンジニアリング (RE) の分野では、AI でサポートされるシステムをユーザーのニーズ、社会の期待、規制基準に合わせる上で、説明可能な人工知能 (XAI) の重要性がますます高まっていることが認識されています。
一般に、説明可能性は、システムの品質に影響を与える重要な非機能要件として浮上しています。
しかし、説明可能性とパフォーマンスの間の想定されるトレードオフは、説明可能性の想定されるプラスの影響に疑問を投げかけます。
説明可能性の要件を満たすためにシステム パフォーマンスの低下が伴う場合は、これらの品質面のどれを優先するか、およびそれらの間でどのように妥協するかを慎重に検討する必要があります。
この論文では、疑われるトレードオフを批判的に検証します。
私たちは、リソースの可用性、ドメインの特性、リスクの考慮事項を組み込んだ微妙な方法でアプローチするのが最善であると主張します。
この研究は、将来の研究とベストプラクティスのための基盤を提供することにより、AI の RE 分野を前進させることを目的としています。

要約(オリジナル)

Within the field of Requirements Engineering (RE), the increasing significance of Explainable Artificial Intelligence (XAI) in aligning AI-supported systems with user needs, societal expectations, and regulatory standards has garnered recognition. In general, explainability has emerged as an important non-functional requirement that impacts system quality. However, the supposed trade-off between explainability and performance challenges the presumed positive influence of explainability. If meeting the requirement of explainability entails a reduction in system performance, then careful consideration must be given to which of these quality aspects takes precedence and how to compromise between them. In this paper, we critically examine the alleged trade-off. We argue that it is best approached in a nuanced way that incorporates resource availability, domain characteristics, and considerations of risk. By providing a foundation for future research and best practices, this work aims to advance the field of RE for AI.

arxiv情報

著者 Timo Speith,Markus Langer
発行日 2023-07-26 15:15:44+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.SE パーマリンク