Controllable Edge-Type-Specific Interpretation in Multi-Relational Graph Neural Networks for Drug Response Prediction

要約

グラフニューラルネットワークは、解釈可能な予測を必要とする重要な意思決定分野で広く応用されており、解釈可能性アルゴリズムの開発が盛んに行われている。しかし、現在のグラフ解釈可能性アルゴリズムは、一般性を重視する傾向があり、しばしば生物学的意義を見落とすため、抗がん剤反応予測への適用が制限されている。本論文では、制御可能なエッジタイプ固有の重み付けメカニズムを組み込んだ、抗がん剤反応予測のための新しいポストホック解釈可能性アルゴリズム、CETExplainerを提案する。CETExplainerは、サブグラフと予測間の相互情報を考慮し、予測モデルに対してきめ細かく生物学的に意味のある説明を提供する構造的スコアリングアプローチを提案する。また、提案する解釈可能性アルゴリズムを定量的に評価するために、実世界のデータセットに基づいてグランドトゥルースを構築する手法を紹介する。実世界のデータセットを用いた実証分析により、CETExplainerは主要なアルゴリズムと比較して優れた安定性を達成し、説明の質を向上させることが実証され、それによって抗がん剤予測のための頑健で洞察に満ちたツールを提供する。

要約(オリジナル)

Graph Neural Networks have been widely applied in critical decision-making areas that demand interpretable predictions, leading to the flourishing development of interpretability algorithms. However, current graph interpretability algorithms tend to emphasize generality and often overlook biological significance, thereby limiting their applicability in predicting cancer drug responses. In this paper, we propose a novel post-hoc interpretability algorithm for cancer drug response prediction, CETExplainer, which incorporates a controllable edge-type-specific weighting mechanism. It considers the mutual information between subgraphs and predictions, proposing a structural scoring approach to provide fine-grained, biologically meaningful explanations for predictive models. We also introduce a method for constructing ground truth based on real-world datasets to quantitatively evaluate the proposed interpretability algorithm. Empirical analysis on the real-world dataset demonstrates that CETExplainer achieves superior stability and improves explanation quality compared to leading algorithms, thereby offering a robust and insightful tool for cancer drug prediction.

arxiv情報

著者 Xiaodi Li,Jianfeng Gui,Qian Gao,Haoyuan Shi,Zhenyu Yue
発行日 2024-09-03 08:45:37+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.LG パーマリンク