要約
XAI(eXplainable Artificial Intelligence)のためのアドホックな手法とは対照的に、形式的説明可能性は厳密性を保証する重要なものである。しかし、形式的説明可能性は、分類器の種類によってはスケーラビリティに劣るという問題がある(最も重要なのはニューラルネットワークである)。その結果、形式的説明可能性が、信頼できるAIを提供する上で他のアプローチを補完する役割を果たすかどうかが懸念されている。本論文では、形式的説明可能性のスケーラビリティの限界に対処し、形式的説明を計算するための新しいアルゴリズムを提案する。本アルゴリズムは、ロバスト性の問い合わせに答えることで説明を計算し、その問い合わせの数は特徴の数に対して最大で線形となるようにする。その結果、提案されたアルゴリズムは、形式的説明可能性の実用的な複雑さと頑健性の複雑さの間に直接的な関係を確立する。さらに重要なことは、本論文は形式的説明の定義を一般化することで、異なる距離規範に基づく頑健性ツールの使用を可能にし、また、ある目標頑健性の度合いで推論することを可能にすることである。実験により、提案されたアプローチの実用的な効率性が検証された。
要約(オリジナル)
In contrast with ad-hoc methods for eXplainable Artificial Intelligence (XAI), formal explainability offers important guarantees of rigor. However, formal explainability is hindered by poor scalability for some families of classifiers, the most significant being neural networks. As a result, there are concerns as to whether formal explainability might serve to complement other approaches in delivering trustworthy AI. This paper addresses the limitation of scalability of formal explainability, and proposes novel algorithms for computing formal explanations. The novel algorithm computes explanations by answering instead a number of robustness queries, and such that the number of such queries is at most linear on the number of features. Consequently, the proposed algorithm establishes a direct relationship between the practical complexity of formal explainability and that of robustness. More importantly, the paper generalizes the definition of formal explanation, thereby allowing the use of robustness tools that are based on different distance norms, and also by reasoning in terms of some target degree of robustness. The experiments validate the practical efficiency of the proposed approach.
arxiv情報
| 著者 | Xuanxiang Huang,Joao Marques-Silva |
| 発行日 | 2023-06-05 17:21:05+00:00 |
| arxivサイト | arxiv_id(pdf) |