Trade-off Between Efficiency and Consistency for Removal-based Explanations

要約

現在の説明手法の状況では、SHAP や LIME などの最も主流のアプローチは、特定の特徴を省略したさまざまなシナリオをシミュレートすることにより、個々の特徴の影響を評価する除去ベースの手法を採用しています。
それにもかかわらず、これらの方法は主に元のコンテキストでの効率を重視しており、多くの場合、全体的な矛盾が生じます。
この論文では、解釈可能性、効率性、一貫性は同時には成り立たないと仮定する不可能な三位一体定理を確立することによって、そのような矛盾がこれらのアプローチに固有の側面であることを実証します。
理想的な説明の達成は依然としてとらえどころのないものであることを認識し、非効率性と不一致を評価するための指標として解釈エラーを利用することを提案します。
この目的を達成するために、解釈エラーを最小限に抑えることを目的とした、標準多項式ベースに基づいた 2 つの新しいアルゴリズムを紹介します。
私たちの経験的発見は、提案された方法が解釈エラーの大幅な削減を達成し、代替技術と比較した場合、最大 31.8 倍低いことを示しています。
コードは https://github.com/trusty-ai/efficient-consistent-explanations で入手できます。

要約(オリジナル)

In the current landscape of explanation methodologies, most predominant approaches, such as SHAP and LIME, employ removal-based techniques to evaluate the impact of individual features by simulating various scenarios with specific features omitted. Nonetheless, these methods primarily emphasize efficiency in the original context, often resulting in general inconsistencies. In this paper, we demonstrate that such inconsistency is an inherent aspect of these approaches by establishing the Impossible Trinity Theorem, which posits that interpretability, efficiency, and consistency cannot hold simultaneously. Recognizing that the attainment of an ideal explanation remains elusive, we propose the utilization of interpretation error as a metric to gauge inefficiencies and inconsistencies. To this end, we present two novel algorithms founded on the standard polynomial basis, aimed at minimizing interpretation error. Our empirical findings indicate that the proposed methods achieve a substantial reduction in interpretation error, up to 31.8 times lower when compared to alternative techniques. Code is available at https://github.com/trusty-ai/efficient-consistent-explanations.

arxiv情報

著者 Yifan Zhang,Haowei He,Zhiquan Tan,Yang Yuan
発行日 2023-10-20 14:42:34+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG, stat.ML パーマリンク