Even-Ifs From If-Onlys: Are the Best Semi-Factual Explanations Found Using Counterfactuals As Guides?

要約

最近、「if-only」説明を使用した反事実は、ブラックボックス AI システムの機能入力へのどの変更が (通常は否定的な) 意思決定結果の変更をもたらすかを説明するため、eXplainable AI (XAI) で非常に人気があります。
さらに最近では、「たとえ」説明を使用した半事実がより注目を集めています。
これらは、AI システムの意思決定結果を変えない特徴入力の変更を解明し、より有益な手段を提案する可能性をもたらします。
一部の半事実メソッドは、クエリインスタンスに対する反事実を使用して、半事実の生成をガイドします (いわゆる反事実ガイド付きメソッド) が、他のメソッドは使用しません (いわゆる反事実フリーメソッド)。
この研究では、5 つの主要な指標を使用して 7 つのデータセットに対して 8 つの半事実メソッドの包括的なテストを実行し、最良の半事実を見つけるために反事実のガイダンスが必要かどうかを判断します。
これらのテストの結果は、そうではなく、意思決定空間の他の側面を計算することで、より優れた半事実的な XAI が得られることを示唆しています。

要約(オリジナル)

Recently, counterfactuals using ‘if-only’ explanations have become very popular in eXplainable AI (XAI), as they describe which changes to feature-inputs of a black-box AI system result in changes to a (usually negative) decision-outcome. Even more recently, semi-factuals using ‘even-if’ explanations have gained more attention. They elucidate the feature-input changes that do not change the decision-outcome of the AI system, with a potential to suggest more beneficial recourses. Some semi-factual methods use counterfactuals to the query-instance to guide semi-factual production (so-called counterfactual-guided methods), whereas others do not (so-called counterfactual-free methods). In this work, we perform comprehensive tests of 8 semi-factual methods on 7 datasets using 5 key metrics, to determine whether counterfactual guidance is necessary to find the best semi-factuals. The results of these tests suggests not, but rather that computing other aspects of the decision space lead to better semi-factual XAI.

arxiv情報

著者 Saugat Aryal,Mark T. Keane
発行日 2024-04-25 15:36:15+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI パーマリンク