Unified Explanations in Machine Learning Models: A Perturbation Approach

要約

近年、説明可能な人工知能 (XAI) へのパラダイム シフトが急速に進んでいます。
非常に複雑な機械学習 (ML) モデルがインテリジェンスの多くのタスクで活躍しており、問題は従来の有効性の指標からより深いものに移り始めています。つまり、このモデルはデータについて何を示しているのか、また、どのようにしてこれらのデータに到達しているのかということです。
結論は?
XAI とモデリング技術の間に矛盾があると、これらの説明可能性アプローチの有効性に疑問が投げかけられるという望ましくない影響が生じる可能性があります。
これらの問題に対処するために、XAI で人気のあるモデルに依存しない手法である SHapley Additive exPlanations (Shap) に対する系統的な摂動ベースの解析を提案します。
私たちは、一連の一般的な機械学習および深層学習手法の間で動的推論の設定における相対的な特徴の重要性を生成するアルゴリズムと、静的なケースの下で生成された説明がどの程度適切に保持されるかを定量化できるメトリクスを考案します。
私たちは、特徴の重要性方法論のための分類法を提案し、整合性を測定し、複数のデータセットにわたる説明モデル間の定量化可能な類似性を観察します。

要約(オリジナル)

A high-velocity paradigm shift towards Explainable Artificial Intelligence (XAI) has emerged in recent years. Highly complex Machine Learning (ML) models have flourished in many tasks of intelligence, and the questions have started to shift away from traditional metrics of validity towards something deeper: What is this model telling me about my data, and how is it arriving at these conclusions? Inconsistencies between XAI and modeling techniques can have the undesirable effect of casting doubt upon the efficacy of these explainability approaches. To address these problems, we propose a systematic, perturbation-based analysis against a popular, model-agnostic method in XAI, SHapley Additive exPlanations (Shap). We devise algorithms to generate relative feature importance in settings of dynamic inference amongst a suite of popular machine learning and deep learning methods, and metrics that allow us to quantify how well explanations generated under the static case hold. We propose a taxonomy for feature importance methodology, measure alignment, and observe quantifiable similarity amongst explanation models across several datasets.

arxiv情報

著者 Jacob Dineen,Don Kridel,Daniel Dolk,David Castillo
発行日 2024-05-30 16:04:35+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク