Evaluating Link Prediction Explanations for Graph Neural Networks

要約

グラフ機械学習(GML)は、ノード/グラフの分類やリンク予測など、実世界のドメインにおいて多くの応用がある。GMLモデルに対して人間が理解可能な説明を提供することは、GMLの採用を促進するための挑戦的かつ基本的な課題であるが、リンク予測モデルに対する説明の検証はほとんど注目されていない。本稿では、リンク予測説明の品質を評価するための定量的指標を、グランドトゥルースの有無に関わらず提供する。グラフニューラルネットワークのための最新の説明可能性手法を、これらのメトリクスを使って評価する。ノード埋め込み間の距離の選択など、リンク予測タスクに特有の基礎的仮定や技術的詳細が、説明の品質にどのように影響するかを議論する。

要約(オリジナル)

Graph Machine Learning (GML) has numerous applications, such as node/graph classification and link prediction, in real-world domains. Providing human-understandable explanations for GML models is a challenging yet fundamental task to foster their adoption, but validating explanations for link prediction models has received little attention. In this paper, we provide quantitative metrics to assess the quality of link prediction explanations, with or without ground-truth. State-of-the-art explainability methods for Graph Neural Networks are evaluated using these metrics. We discuss how underlying assumptions and technical details specific to the link prediction task, such as the choice of distance between node embeddings, can influence the quality of the explanations.

arxiv情報

著者 Claudio Borile,Alan Perotti,André Panisson
発行日 2023-08-03 10:48:37+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.LG パーマリンク