要約
説明可能な人工知能 (XAI) は、近年最も集中的に開発されている AI 分野の 1 つです。
また、説明のさまざまな側面に焦点を当てた複数の方法が最も細分化されている方法の 1 つです。
このため、コンパクトかつ一貫した方法で説明の全範囲を一度に取得することが困難になります。
この問題に対処するために、事実、反事実、および視覚的な説明を生成できるルールベースの説明ツールである Local Universal Explainer (LUX) を紹介します。
これは、斜め分割や、SHAP や LIME などの特徴重要度 XAI 手法との統合を可能にする、デシジョン ツリー アルゴリズムの修正バージョンに基づいています。
他のアルゴリズムとは逆のデータ生成を使用しませんが、説明されたモデルの決定境界の形成に最も大きな影響を与える実際のデータの高密度クラスターの形式で局所的な概念を選択することに重点を置いています。
実際のデータセットと合成データセットでメソッドをテストし、LORE、EXPLAN、Anchor などの最先端のルールベースのエクスプローラーと比較しました。
私たちの方法は、単純さ、グローバルな忠実性、代表性、一貫性の点で既存のアプローチよりも優れています。
要約(オリジナル)
Explainable artificial intelligence (XAI) is one of the most intensively developed area of AI in recent years. It is also one of the most fragmented with multiple methods that focus on different aspects of explanations. This makes difficult to obtain the full spectrum of explanation at once in a compact and consistent way. To address this issue, we present Local Universal Explainer (LUX), which is a rule-based explainer that can generate factual, counterfactual and visual explanations. It is based on a modified version of decision tree algorithms that allows for oblique splits and integration with feature importance XAI methods such as SHAP or LIME. It does not use data generation in opposite to other algorithms, but is focused on selecting local concepts in a form of high-density clusters of real data that have the highest impact on forming the decision boundary of the explained model. We tested our method on real and synthetic datasets and compared it with state-of-the-art rule-based explainers such as LORE, EXPLAN and Anchor. Our method outperforms the existing approaches in terms of simplicity, global fidelity, representativeness, and consistency.
arxiv情報
著者 | Szymon Bobek,Grzegorz J. Nalepa |
発行日 | 2024-02-09 11:51:51+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google