Global Explainability of GNNs via Logic Combination of Learned Concepts

要約

タイトル:グラフニューラルネットワークの学習済み概念の論理組み合わせによるグローバルな説明可能性

要約: グラフニューラルネットワーク(GNN)のインスタンスレベルの説明が研究されており、多くの手法が開発されていますが、GNNの動作のグローバルな説明を提供することは、解釈性とデバッグの可能性を持つにもかかわらず、はるかに少ないです。既存のソリューションは、単に特定のクラスのローカルな説明をリストアップするか、特定のクラスの最大スコアを持つ合成プロトタイプグラフを生成するものであり、GNNが学習した可能性のある組み合わせの部分を完全に無視します。この研究では、GLGExplainer(グラフニューラルネットワークによる論理型グローバル説明器)を提案します。これは、学習されたグラフ概念の任意のブール組み合わせとして説明を生成できる、最初のグローバル説明器です。GLGExplainerは、入力としてローカル説明を取り、それらをグラフ概念のクラスタとして表現される論理式に結合する完全微分可能なアーキテクチャです。既存のソリューションとは異なり、GLGExplainerは、合成データのグラウンドトゥルー説明に完全に合致した正確で人間に解釈可能なグローバル説明を提供します。また、一部の時にはモデルが学習した誤ったルールについての洞察を提供し、GLGExplainerは学習されたGNNの診断ツールとして非常に有望です。

要点:

– GNNのインスタンスレベルの説明はよく研究されているが、グローバルな説明についてはほとんど研究されていない。
– 既存のグローバル説明ソリューションは、ローカル説明のリストアップや合成プロトタイプグラフの生成など、GNNが学習した可能性のある組み合わせの部分を無視する。
– GLGExplainerは、学習されたグラフ概念の任意のブール組み合わせを使用してグローバル説明を生成できる最初のグローバル説明器。
– GLGExplainerは、ローカル説明を入力とし、それらをグラフ概念のクラスタを表現する論理式に結合する完全微分可能なアーキテクチャである。
– GLGExplainerは、グラウンドトゥルー説明に完全に合致した正確で人間に解釈可能なグローバル説明を提供する。
– GLGExplainerは、GNNの誤ったルールについての洞察を提供し、学習されたGNNの診断ツールとして非常に有望である。

要約(オリジナル)

While instance-level explanation of GNN is a well-studied problem with plenty of approaches being developed, providing a global explanation for the behaviour of a GNN is much less explored, despite its potential in interpretability and debugging. Existing solutions either simply list local explanations for a given class, or generate a synthetic prototypical graph with maximal score for a given class, completely missing any combinatorial aspect that the GNN could have learned. In this work, we propose GLGExplainer (Global Logic-based GNN Explainer), the first Global Explainer capable of generating explanations as arbitrary Boolean combinations of learned graphical concepts. GLGExplainer is a fully differentiable architecture that takes local explanations as inputs and combines them into a logic formula over graphical concepts, represented as clusters of local explanations. Contrary to existing solutions, GLGExplainer provides accurate and human-interpretable global explanations that are perfectly aligned with ground-truth explanations (on synthetic data) or match existing domain knowledge (on real-world data). Extracted formulas are faithful to the model predictions, to the point of providing insights into some occasionally incorrect rules learned by the model, making GLGExplainer a promising diagnostic tool for learned GNNs.

arxiv情報

著者 Steve Azzolin,Antonio Longa,Pietro Barbiero,Pietro Liò,Andrea Passerini
発行日 2023-04-11 18:15:20+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.AI, cs.LG, cs.LO パーマリンク