要約
グラフ ニューラル ネットワーク (GNN) がさらに普及するにつれて、その予測の説明を計算するための堅牢なツールを構築することが最も重要になります。
重要な要望は、これらの説明が忠実であること、つまり、GNN の推論プロセスの正確な図を描写していることです。
さまざまな忠実度の指標が多数存在し、忠実さとは正確に何なのか、またその特性は何なのかという疑問が生じています。
まず、既存の指標が互換性がないこと、つまり、ある指標に従って高い忠実度を達成している説明が、他の指標によれば忠実ではない可能性があること、および説明の重要な特性に対して体系的に鈍感である可能性があることを示し、これらの問題に対処する方法を提案します。
驚くべきことに、忠実性を高めるための最適化は必ずしも賢明な設計目標ではないことを示していきます。
具体的には、単射正則 GNN アーキテクチャの場合、完全に忠実な説明はまったく有益ではないことを示します。
自己説明可能でドメイン不変のアーキテクチャなどのモジュラー GNN では状況が異なります。この場合、忠実性の最適化によって情報提供性が損なわれることはなく、予想外に配布範囲外の一般化にも結びついています。
要約(オリジナル)
As Graph Neural Networks (GNNs) become more pervasive, it becomes paramount to build robust tools for computing explanations of their predictions. A key desideratum is that these explanations are faithful, i.e., that they portray an accurate picture of the GNN’s reasoning process. A number of different faithfulness metrics exist, begging the question of what faithfulness is exactly, and what its properties are. We begin by showing that existing metrics are not interchangeable — i.e., explanations attaining high faithfulness according to one metric may be unfaithful according to others — and can be systematically insensitive to important properties of the explanation, and suggest how to address these issues. We proceed to show that, surprisingly, optimizing for faithfulness is not always a sensible design goal. Specifically, we show that for injective regular GNN architectures, perfectly faithful explanations are completely uninformative. The situation is different for modular GNNs, such as self-explainable and domain-invariant architectures, where optimizing faithfulness does not compromise informativeness, and is also unexpectedly tied to out-of-distribution generalization.
arxiv情報
著者 | Steve Azzolin,Antonio Longa,Stefano Teso,Andrea Passerini |
発行日 | 2024-06-21 14:01:23+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google