要約
今日、深層予測モデル、特にグラフニューラルネットワークは、重要なアプリケーションにおいて重要な位置を占めている。このような状況では、これらのモデルは人間によって高度に解釈可能であること、あるいは説明可能であることが必要であり、社会的な範囲では、この理解は、説明する必要があるモデルやコンテキストについて強い予備知識を持っていない人間にとっても実行可能である可能性がある。文献では、説明とは説明者と被説明者の間で現象に関する人間の知識を伝達することである。我々は、説明の過程で生じる説明者と被説明者の社会的依存関係を計算機的に符号化する、グラフニューラルネットワークのための新しい強力な説明法、EiX-GNN (Eigencentrality eXplainer forGraph Neural Networks) を提案する。この依存性を扱うために、説明者が被説明者の背景や期待に適応して説明することを可能にする被説明者概念の同化性という概念を導入する。我々は、実世界のデータを用いて我々の説明者概念の同質性を説明する定性的研究を行うとともに、文献に確立された客観的な指標に従って、我々の手法の公平性とコンパクト性を最新の手法と比較する定性的研究を行う。その結果、本手法は両方の側面で強力な結果を達成することが分かった。
要約(オリジナル)
Nowadays, deep prediction models, especially graph neural networks, have a majorplace in critical applications. In such context, those models need to be highlyinterpretable or being explainable by humans, and at the societal scope, this understandingmay also be feasible for humans that do not have a strong prior knowledgein models and contexts that need to be explained. In the literature, explainingis a human knowledge transfer process regarding a phenomenon between an explainerand an explainee. We propose EiX-GNN (Eigencentrality eXplainer forGraph Neural Networks) a new powerful method for explaining graph neural networksthat encodes computationally this social explainer-to-explainee dependenceunderlying in the explanation process. To handle this dependency, we introducethe notion of explainee concept assimibility which allows explainer to adapt itsexplanation to explainee background or expectation. We lead a qualitative studyto illustrate our explainee concept assimibility notion on real-world data as wellas a qualitative study that compares, according to objective metrics established inthe literature, fairness and compactness of our method with respect to performingstate-of-the-art methods. It turns out that our method achieves strong results inboth aspects.
arxiv情報
著者 | Adrien Raison,Pascal Bourdon,David Helbert |
発行日 | 2022-10-05 14:42:58+00:00 |
arxivサイト | arxiv_id(pdf) |