要約
リレーショナル データの説明は、説明構造がより複雑であるため (グラフなど)、検証が困難です。
解釈可能な説明(画像、テキストなどで行われた予測の説明など)を検証するには、必ずしも多くの専門知識を必要としないため、通常は人間の被験者が使用されます。
ただし、関係説明の品質を検証するには専門知識が必要であり、規模を拡大するのは困難です。
GNNExplainer はおそらく、グラフ ニューラル ネットワークの最も一般的な説明方法の 1 つです。
この論文では、GNNExplainer によって生成された説明の不確実性を評価するアプローチを開発します。
具体的には、説明者にいくつかの反事実の例についての説明を作成するよう依頼します。
これらの例は、元のデータの関係構造の対称近似として生成されます。
これらの説明から、説明の不確実性を定量化するためのファクター グラフ モデルを学習します。
いくつかのデータセットに関する結果は、私たちのアプローチが、説明で指定された関係の不確実性を確実に推定することにより、GNNExplainer からの説明を検証するのに役立つことを示しています。
要約(オリジナル)
Explanations on relational data are hard to verify since the explanation structures are more complex (e.g. graphs). To verify interpretable explanations (e.g. explanations of predictions made in images, text, etc.), typically human subjects are used since it does not necessarily require a lot of expertise. However, to verify the quality of a relational explanation requires expertise and is hard to scale-up. GNNExplainer is arguably one of the most popular explanation methods for Graph Neural Networks. In this paper, we develop an approach where we assess the uncertainty in explanations generated by GNNExplainer. Specifically, we ask the explainer to generate explanations for several counterfactual examples. We generate these examples as symmetric approximations of the relational structure in the original data. From these explanations, we learn a factor graph model to quantify uncertainty in an explanation. Our results on several datasets show that our approach can help verify explanations from GNNExplainer by reliably estimating the uncertainty of a relation specified in the explanation.
arxiv情報
著者 | Abisha Thapa Magar,Anup Shakya,Somdeb Sarkhel,Deepak Venugopal |
発行日 | 2024-01-05 08:14:51+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google