QUCE: The Minimisation and Quantification of Path-Based Uncertainty for Generative Counterfactual Explanations

要約

ディープ ニューラル ネットワーク (DNN) は、機械学習 (ML) ドメイン内で最も著名なアプローチの 1 つとして際立っています。
DNN の有効性は、最近の計算能力の向上とともに急速に高まっており、これらのアプローチがビッグ データの予測上の課題に対処するために、大幅な複雑さに合わせて拡張できるようになりました。
ただし、DNN モデルの複雑さが増すにつれて、解釈可能性は低下します。
この課題に対応して、Adversarial Gradient Integration (AGI) などの説明可能なモデルは、DNN によって提供されるパスベースの勾配を活用して、決定を解明します。
しかし、分布外パスのトラバース中に勾配に不規則性が見られる場合、パスベースのエクスプリーナのパフォーマンスが低下する可能性があります。
これに関連して、パスの不確実性を最小限に抑えることで分布外のトラバーサルを軽減するように設計された手法である、定量化された不確実性反事実説明 (QUCE) を紹介します。
QUCE は、説明を提示する際の不確実性を定量化するだけでなく、より確実な反事実の例も生成します。
パスベースの説明と生成的な反事実の例の両方について、競合する手法と比較することで、QUCE 手法のパフォーマンスを紹介します。
QUCE メソッドのコード リポジトリは、https://github.com/jamie-duell/QUCE から入手できます。

要約(オリジナル)

Deep Neural Networks (DNNs) stand out as one of the most prominent approaches within the Machine Learning (ML) domain. The efficacy of DNNs has surged alongside recent increases in computational capacity, allowing these approaches to scale to significant complexities for addressing predictive challenges in big data. However, as the complexity of DNN models rises, interpretability diminishes. In response to this challenge, explainable models such as Adversarial Gradient Integration (AGI) leverage path-based gradients provided by DNNs to elucidate their decisions. Yet the performance of path-based explainers can be compromised when gradients exhibit irregularities during out-of-distribution path traversal. In this context, we introduce Quantified Uncertainty Counterfactual Explanations (QUCE), a method designed to mitigate out-of-distribution traversal by minimizing path uncertainty. QUCE not only quantifies uncertainty when presenting explanations but also generates more certain counterfactual examples. We showcase the performance of the QUCE method by comparing it with competing methods for both path-based explanations and generative counterfactual examples. The code repository for the QUCE method is available at: https://github.com/jamie-duell/QUCE.

arxiv情報

著者 Jamie Duell,Hsuan Fu,Monika Seisenberger,Xiuyi Fan
発行日 2024-02-27 14:00:08+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク