GRAPHSHAP: Explaining Identity-Aware Graph Classifiers Through the Language of Motifs

要約

ブラックボックス分類子 (表形式データ、画像、時系列など) を説明するほとんどの方法は、特徴の削除/摂動がモデル出力に与える影響の測定に依存しています。
これにより、説明言語が分類子の特徴空間と強制的に一致します。
ただし、基本的な特徴がグラフ構造を記述するエッジに対応するグラフ データを扱う場合、特徴空間と説明言語の間のこの一致は適切ではない可能性があります。
したがって、特徴空間 (エッジ) を目的の高レベルの説明言語 (モチーフなど) から切り離すことは、グラフ分類タスクの実用的な説明を開発する上での大きな課題となります。
この論文では、モデルやそのトレーニング データについてまったく知識がないことを前提として、アイデンティティ認識グラフ分類器にモチーフベースの説明を提供できる Shapley ベースのアプローチである GRAPHSHAP を紹介します。唯一の要件は、分類器がクエリとしてクエリできることです。
意のままにブラックボックス化。
計算効率を高めるために、漸進的近似戦略を検討し、単純なカーネルがどのように説明スコアを効率的に近似できるかを示します。これにより、GRAPHSHAP が大きな説明空間 (つまり、多数のモチーフ) を持つシナリオに対応できるようになります。
自閉症スペクトラム障害の患者と対照群で構成される現実世界の脳ネットワーク データセット上で GRAPHSHAP を紹介します。
私たちの実験は、ブラックボックス モデルによって提供される分類が、少数のコネクトミクス パターンによってどのように効果的に説明できるかを強調しています。

要約(オリジナル)

Most methods for explaining black-box classifiers (e.g. on tabular data, images, or time series) rely on measuring the impact that removing/perturbing features has on the model output. This forces the explanation language to match the classifier’s feature space. However, when dealing with graph data, in which the basic features correspond to the edges describing the graph structure, this matching between features space and explanation language might not be appropriate. Decoupling the feature space (edges) from a desired high-level explanation language (such as motifs) is thus a major challenge towards developing actionable explanations for graph classification tasks. In this paper we introduce GRAPHSHAP, a Shapley-based approach able to provide motif-based explanations for identity-aware graph classifiers, assuming no knowledge whatsoever about the model or its training data: the only requirement is that the classifier can be queried as a black-box at will. For the sake of computational efficiency we explore a progressive approximation strategy and show how a simple kernel can efficiently approximate explanation scores, thus allowing GRAPHSHAP to scale on scenarios with a large explanation space (i.e. large number of motifs). We showcase GRAPHSHAP on a real-world brain-network dataset consisting of patients affected by Autism Spectrum Disorder and a control group. Our experiments highlight how the classification provided by a black-box model can be effectively explained by few connectomics patterns.

arxiv情報

著者 Alan Perotti,Paolo Bajardi,Francesco Bonchi,André Panisson
発行日 2023-07-07 12:53:40+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク