BetaExplainer: A Probabilistic Method to Explain Graph Neural Networks

要約

グラフ ニューラル ネットワーク (GNN) は、グラフ データの推論を実行するための強力なツールですが、予測パフォーマンスを促進する意味のあるサブネットワークを抽出することが難しいため、「ブラック ボックス」と見なされることもよくあります。
解釈可能な GNN 手法は数多く存在しますが、エッジの重みの不確実性を定量化することができず、困難なグラフ構造に適用すると予測精度が低下します。
この研究では、モデルのトレーニング中に重要でないエッジをマスクする前にスパース性誘導を使用することでこれらの問題に対処する BetaExplainer を提案しました。
私たちのアプローチを評価するために、現実世界の多様な特性を持つさまざまなシミュレートされたデータセットを調べます。
この実装は、エッジ重要度の不確実性の概念を提供するだけでなく、最先端の説明手法と比較して、困難なデータセットの評価メトリクスも改善します。

要約(オリジナル)

Graph neural networks (GNNs) are powerful tools for conducting inference on graph data but are often seen as ‘black boxes’ due to difficulty in extracting meaningful subnetworks driving predictive performance. Many interpretable GNN methods exist, but they cannot quantify uncertainty in edge weights and suffer in predictive accuracy when applied to challenging graph structures. In this work, we proposed BetaExplainer which addresses these issues by using a sparsity-inducing prior to mask unimportant edges during model training. To evaluate our approach, we examine various simulated data sets with diverse real-world characteristics. Not only does this implementation provide a notion of edge importance uncertainty, it also improves upon evaluation metrics for challenging datasets compared to state-of-the art explainer methods.

arxiv情報

著者 Whitney Sloneker,Shalin Patel,Michael Wang,Lorin Crawford,Ritambhara Singh
発行日 2024-12-16 16:45:26+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML パーマリンク