Statistical Test for Saliency Maps of Graph Neural Networks via Selective Inference

要約

グラフニューラルネットワーク(GNNS)は、さまざまなドメインでグラフ構造化データを処理する能力で顕著になりました。
ただし、GNNの決定を解釈することは重要な課題であり、影響力のあるノードとエッジを識別するための顕著性マップの採用につながります。
その有用性にもかかわらず、特にノイズに対する堅牢性の観点から、GNN顕著性マップの信頼性が疑問視されています。
この研究では、顕著性マップの重要性を厳密に評価するための統計テストフレームワークを提案します。
私たちの主な貢献は、データの二重浸漬によって引き起こされるタイプIエラー率のインフレに対処し、選択的推論のフレームワークを活用することにあります。
私たちの方法は、タイプIエラー率を制御しながら統計的に有効な$ p $値を提供し、特定された顕著なサブグラフにランダムアーティファクトではなく意味のある情報が含まれるようにします。
当社の方法の有効性を実証するために、合成データセットと実世界の両方のデータセットで実験を実施し、GNN解釈の信頼性を評価する際の有効性を示しています。

要約(オリジナル)

Graph Neural Networks (GNNs) have gained prominence for their ability to process graph-structured data across various domains. However, interpreting GNN decisions remains a significant challenge, leading to the adoption of saliency maps for identifying influential nodes and edges. Despite their utility, the reliability of GNN saliency maps has been questioned, particularly in terms of their robustness to noise. In this study, we propose a statistical testing framework to rigorously evaluate the significance of saliency maps. Our main contribution lies in addressing the inflation of the Type I error rate caused by double-dipping of data, leveraging the framework of Selective Inference. Our method provides statistically valid $p$-values while controlling the Type I error rate, ensuring that identified salient subgraphs contain meaningful information rather than random artifacts. To demonstrate the effectiveness of our method, we conduct experiments on both synthetic and real-world datasets, showing its effectiveness in assessing the reliability of GNN interpretations.

arxiv情報

著者 Shuichi Nishino,Tomohiro Shiraishi,Teruyuki Katsuoka,Ichiro Takeuchi
発行日 2025-05-22 16:50:55+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML パーマリンク