Improving the interpretability of GNN predictions through conformal-based graph sparsification

要約

グラフ ニューラル ネットワーク (GNN) は、グラフ分類タスクの解決において最先端のパフォーマンスを達成しました。
ただし、ほとんどの GNN アーキテクチャは、当面のタスクとの関連性に関係なく、グラフ内のすべてのノードとエッジからの情報を集約するため、予測の解釈可能性が妨げられます。
これまでの研究とは対照的に、この論文では、i) エッジやノードを削除することで最も予測性の高いサブグラフを見つける — -\emph{サブグラフ構造についての仮定を立てずに} – という GNN \emph{トレーニング} アプローチを提案します。
– 一方、ii) グラフ分類タスクのパフォーマンスを最適化します。
そのために、強化学習を利用して、分類器の現在のトレーニング中の不確実性を考慮した共形予測に基づく報酬関数を使用して、結果として得られる 2 レベルの最適化を解決します。
9 つの異なるグラフ分類データセットに関する実験結果は、私たちの方法が、大幅にまばらなサブグラフに依存しながら、パフォーマンスにおいてベースラインと競合し、より解釈しやすい GNN ベースの予測につながることを示しています。

要約(オリジナル)

Graph Neural Networks (GNNs) have achieved state-of-the-art performance in solving graph classification tasks. However, most GNN architectures aggregate information from all nodes and edges in a graph, regardless of their relevance to the task at hand, thus hindering the interpretability of their predictions. In contrast to prior work, in this paper we propose a GNN \emph{training} approach that jointly i) finds the most predictive subgraph by removing edges and/or nodes — -\emph{without making assumptions about the subgraph structure} — while ii) optimizing the performance of the graph classification task. To that end, we rely on reinforcement learning to solve the resulting bi-level optimization with a reward function based on conformal predictions to account for the current in-training uncertainty of the classifier. Our empirical results on nine different graph classification datasets show that our method competes in performance with baselines while relying on significantly sparser subgraphs, leading to more interpretable GNN-based predictions.

arxiv情報

著者 Pablo Sanchez-Martin,Kinaan Aamir Khan,Isabel Valera
発行日 2024-04-18 17:34:47+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.SI, stat.ML パーマリンク