Semantic Interpretation and Validation of Graph Attention-based Explanations for GNN Models

要約

この研究では、グラフ ニューラル ネットワーク (GNN) ベースのモデルの説明可能性を向上させるためのセマンティック アテンションの適用を調査し、セマンティックに情報を与えた摂動を導入し、予測された特徴重要度の重みとモデルの精度の間の相関関係を確立するための方法論を提案します。
グラフディープラーニング(GDL)は、柔軟なグラフ構造を活用して複雑な特徴や関係を簡潔に記述する、シーン解釈などのタスクの有望な分野として浮上しています。
eXplainable AI (XAI) で使用される従来の説明可能性手法はそのような構造に直接適用できないため、グラフ固有のアプローチが導入されます。
アテンション メカニズムは、ディープ ラーニング モデルにおける入力特徴の重要性を推定する際に有効であることが実証されており、GNN 予測に特徴ベースの説明を提供するために以前から使用されてきました。
これらの洞察に基づいて、意味的に分類された特徴セットの重要性指標としての注意の重みの使用を調査する既存の注意ベースのグラフ説明可能性手法を拡張します。
モデルの精度と相関関係にある予測されたアテンションウェイト分布の動作を分析することにより、GNN モデルの動作に関する特徴の重要性について貴重な洞察が得られます。
私たちの方法論を LIDAR 点群推定モデルに適用し、信頼性の高いポストホック意味論的説明を効果的に生成するパフォーマンス向上に寄与する主要な意味論的クラスを首尾よく特定します。

要約(オリジナル)

In this work, we propose a methodology for investigating the application of semantic attention to enhance the explainability of Graph Neural Network (GNN)-based models, introducing semantically-informed perturbations and establishing a correlation between predicted feature-importance weights and model accuracy. Graph Deep Learning (GDL) has emerged as a promising field for tasks like scene interpretation, leveraging flexible graph structures to concisely describe complex features and relationships. As traditional explainability methods used in eXplainable AI (XAI) cannot be directly applied to such structures, graph-specific approaches are introduced. Attention mechanisms have demonstrated their efficacy in estimating the importance of input features in deep learning models and thus have been previously employed to provide feature-based explanations for GNN predictions. Building upon these insights, we extend existing attention-based graph-explainability methods investigating the use of attention weights as importance indicators of semantically sorted feature sets. Through analysing the behaviour of predicted attention-weights distribution in correlation with model accuracy, we gain valuable insights into feature importance with respect to the behaviour of the GNN model. We apply our methodology to a lidar pointcloud estimation model successfully identifying key semantic classes that contribute to enhanced performance effectively generating reliable post-hoc semantic explanations.

arxiv情報

著者 Efimia Panagiotaki,Daniele De Martini,Lars Kunze
発行日 2023-08-08 12:34:32+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CY, cs.LG, cs.RO, G.3 パーマリンク