Graph Counterfactual Explainable AI via Latent Space Traversal

要約

ディープ ニューラル ネットワークの予測を説明するのは簡単な作業ではありませんが、多くの場合、実践者がこれらのモデルを信頼するには、予測に関する高品質の説明が前提条件となります。
反事実的説明は、事前に指定された方法で予測が変化する「最も近い」分布内の代替入力を見つけることによって予測を説明することを目的としています。
ただし、この最も近い代替入力をどのように定義するかは未解決の問題のままであり、その解決策はドメイン (画像、グラフ、表形式データなど) と考慮される特定のアプリケーションの両方に依存します。
グラフの場合、この問題は、i) 最先端のグラフ分類器の連続的な性質とは対照的に、その離散的な性質によって複雑になります。
ii) グラフに作用するノード順列グループによる。
我々は、ケース固有の置換等変グラフ変分オートエンコーダを利用して、微分可能なブラックボックスグラフ分類器に対して反事実的な説明を生成する方法を提案します。
分類器の分類境界を越えてオー​​トエンコーダーの潜在空間を横断することにより、反事実の説明を連続的に生成し、離散グラフ構造と連続グラフ属性のシームレスな統合を可能にします。
3 つのグラフ データセットでこのアプローチを経験的に検証し、モデルが一貫して高いパフォーマンスを示し、ベースラインよりも堅牢であることを示しています。

要約(オリジナル)

Explaining the predictions of a deep neural network is a nontrivial task, yet high-quality explanations for predictions are often a prerequisite for practitioners to trust these models. Counterfactual explanations aim to explain predictions by finding the ”nearest” in-distribution alternative input whose prediction changes in a pre-specified way. However, it remains an open question how to define this nearest alternative input, whose solution depends on both the domain (e.g. images, graphs, tabular data, etc.) and the specific application considered. For graphs, this problem is complicated i) by their discrete nature, as opposed to the continuous nature of state-of-the-art graph classifiers; and ii) by the node permutation group acting on the graphs. We propose a method to generate counterfactual explanations for any differentiable black-box graph classifier, utilizing a case-specific permutation equivariant graph variational autoencoder. We generate counterfactual explanations in a continuous fashion by traversing the latent space of the autoencoder across the classification boundary of the classifier, allowing for seamless integration of discrete graph structure and continuous graph attributes. We empirically validate the approach on three graph datasets, showing that our model is consistently high-performing and more robust than the baselines.

arxiv情報

著者 Andreas Abildtrup Hansen,Paraskevas Pegios,Anna Calissano,Aasa Feragen
発行日 2025-01-15 15:04:10+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, stat.ML パーマリンク