CI-GNN: A Granger Causality-Inspired Graph Neural Network for Interpretable Brain Network-Based Psychiatric Diagnosis

要約

最近では、脳ネットワークに基づいた精神科診断にグラフ ニューラル ネットワーク (GNN) の力を活用する傾向があり、その結果、使用される GNN の意思決定行動を完全に理解するという精神科医の緊急の必要性も刺激されています。
しかし、既存の GNN 説明器のほとんどは、よく訓練された GNN を説明するために別の解釈モデルを作成する必要がある事後的なものであるか、抽出された説明と決定の間の因果関係を考慮していないため、説明自体が
偽の相関が含まれており、忠実度が低い。
この研究では、グレンジャー因果関係にインスピレーションを得たグラフ ニューラル ネットワーク (CI-GNN) を提案します。これは、因果関係に関連する最も影響力のあるサブグラフ (つまり、脳領域内の機能的接続) を特定できる解釈可能な組み込みモデルです。
補助的な解釈ネットワークのトレーニングなしで、意思決定(例:大うつ病性障害患者または健康な対照)を行うことができます。
CI-GNN は、条件付き相互情報量 (CMI) 制約によって正規化されたグラフ変分オートエンコーダー フレームワークの下で、元のグラフの因果的側面と非因果的側面をそれぞれエンコードする、もつれの解けたサブグラフ レベルの表現 {\alpha} と \b{eta} を学習します。
因果関係を捉える上でCMI規制の妥当性を理論的に正当化する。
また、合成データと 3 つの大規模な脳疾患データセットに関する 3 つのベースライン GNN と 4 つの最先端の GNN エクスプローラーに対する CI-GNN のパフォーマンスを経験的に評価します。
CI-GNN が幅広い指標で最高のパフォーマンスを達成し、臨床的証拠のある、より信頼性が高く簡潔な説明を提供することがわかりました。

要約(オリジナル)

There is a recent trend to leverage the power of graph neural networks (GNNs) for brain-network based psychiatric diagnosis, which,in turn, also motivates an urgent need for psychiatrists to fully understand the decision behavior of the used GNNs. However, most of the existing GNN explainers are either post-hoc in which another interpretive model needs to be created to explain a well-trained GNN, or do not consider the causal relationship between the extracted explanation and the decision, such that the explanation itself contains spurious correlations and suffers from weak faithfulness. In this work, we propose a granger causality-inspired graph neural network (CI-GNN), a built-in interpretable model that is able to identify the most influential subgraph (i.e., functional connectivity within brain regions) that is causally related to the decision (e.g., major depressive disorder patients or healthy controls), without the training of an auxillary interpretive network. CI-GNN learns disentangled subgraph-level representations {\alpha} and \b{eta} that encode, respectively, the causal and noncausal aspects of original graph under a graph variational autoencoder framework, regularized by a conditional mutual information (CMI) constraint. We theoretically justify the validity of the CMI regulation in capturing the causal relationship. We also empirically evaluate the performance of CI-GNN against three baseline GNNs and four state-of-the-art GNN explainers on synthetic data and three large-scale brain disease datasets. We observe that CI-GNN achieves the best performance in a wide range of metrics and provides more reliable and concise explanations which have clinical evidence.

arxiv情報

著者 Kaizhong Zheng,Shujian Yu,Badong Chen
発行日 2023-06-09 13:32:29+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, q-bio.NC, stat.ML パーマリンク