EiX-GNN : Concept-level eigencentrality explainer for graph neural networks

要約

説明は、説明者と説明者の間の現象に関する人間の知識移転プロセスです。
この現象を説明するために使用される各単語は、現象の説明者から高い理解を得るために、現在の説明者の現象関連の知識レベルおよび現象自体に従って説明者が慎重に選択する必要があります。
今日、ディープモデル、特にグラフニューラルネットワークは、重要なアプリケーションでも日常生活の中で主要な位置を占めています。
このような状況では、これらのモデルは、デリケートなケースでの使用の信頼性を向上させるために、説明可能とも呼ばれる人間の高い解釈可能性を備えている必要があります。
説明は人間に依存するタスクでもあり、深いモデルの動作を説明する方法には、有益で質の高い説明を提供するためのこれらの社会関連の懸念が含まれている必要があります。
現在の説明方法は、説明を提供するためにそのような社会的側面をしばしば覆い隠し、質問の信号的側面にのみ焦点を合わせています。
この寄稿では、モジュラーコンセプトジェネレーターとして、また固有中心性コンセプト順序付けアプローチのおかげで信号とグラフドメインの側面の両方を活用することにより、このソーシャル機能を含むグラフニューラルネットワークに適した信頼性の高いソーシャルアウェア説明方法を提案します。
私たちの方法は、説明プロセスの根底にある人間に依存する側面を考慮に入れるだけでなく、グラフニューラルネットワークモデルの説明方法を評価する最先端の客観的指標に関しても高いスコアに達します。

要約(オリジナル)

Explaining is a human knowledge transfer process regarding a phenomenon between an explainer and an explainee. Each word used to explain this phenomenon must be carefully selected by the explainer in accordance with the current explainee phenomenon-related knowledge level and the phenomenon itself in order to have a high understanding from the explainee of the phenomenon. Nowadays, deep models, especially graph neural networks, have a major place in daily life even in critical applications. In such context, those models need to have a human high interpretability also referred as being explainable, in order to improve usage trustability of them in sensitive cases. Explaining is also a human dependent task and methods that explain deep model behavior must include these social-related concerns for providing profitable and quality explanations. Current explaining methods often occlude such social aspect for providing their explanations and only focus on the signal aspect of the question. In this contribution we propose a reliable social-aware explaining method suited for graph neural network that includes this social feature as a modular concept generator and by both leveraging signal and graph domain aspect thanks to an eigencentrality concept ordering approach. Besides our method takes into account the human-dependent aspect underlying any explanation process, we also reach high score regarding state-of-the-art objective metrics assessing explanation methods for graph neural networks models.

arxiv情報

著者 Adrien Raison,Pascal Bourdon,David Helbert
発行日 2022-07-25 13:38:12+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG パーマリンク