Variational Shapley Network: A Probabilistic Approach to Self-Explaining Shapley values with Uncertainty Quantification

要約

Shapley 値は、モデルの意思決定プロセスを解明するための機械学習 (ML) の基礎ツールとして登場しました。
広く採用されており、必須の説明可能性公理を満たす独自の能力にもかかわらず、($i$) 入力特徴の組み合わせのすべての可能なサブセットにわたってモデルを評価するとき、($ii$) モデルの限界を推定するとき、($iii) 推定する際には計算上の課題が残ります。
$) 説明のばらつきに対処します。
我々は、Shapley 値の計算を大幅に簡素化し、単一の前方パスのみを必要とする、新規の自明の方法を導入します。
シャプレー値の決定論的な扱いには限界があることを認識し、説明に内在する不確実性を捉えるために確率論的な枠組みを組み込むことを検討します。
代替手法とは異なり、私たちの手法は限界を推定するために観察されたデータ空間に直接依存しません。
代わりに、新しいマスクされたニューラル ネットワーク アーキテクチャによって生成された、潜在的な特徴固有の埋め込み空間から導出された、適応可能なベースライン値を使用します。
シミュレートされたデータセットと実際のデータセットの評価により、この手法の堅牢な予測および説明パフォーマンスが強調されます。

要約(オリジナル)

Shapley values have emerged as a foundational tool in machine learning (ML) for elucidating model decision-making processes. Despite their widespread adoption and unique ability to satisfy essential explainability axioms, computational challenges persist in their estimation when ($i$) evaluating a model over all possible subset of input feature combinations, ($ii$) estimating model marginals, and ($iii$) addressing variability in explanations. We introduce a novel, self-explaining method that simplifies the computation of Shapley values significantly, requiring only a single forward pass. Recognizing the deterministic treatment of Shapley values as a limitation, we explore incorporating a probabilistic framework to capture the inherent uncertainty in explanations. Unlike alternatives, our technique does not rely directly on the observed data space to estimate marginals; instead, it uses adaptable baseline values derived from a latent, feature-specific embedding space, generated by a novel masked neural network architecture. Evaluations on simulated and real datasets underscore our technique’s robust predictive and explanatory performance.

arxiv情報

著者 Mert Ketenci,Iñigo Urteaga,Victor Alfonso Rodriguez,Noémie Elhadad,Adler Perotte
発行日 2024-02-06 18:09:05+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML パーマリンク