A Lightweight Generative Model for Interpretable Subject-level Prediction

要約

近年、対象者の診断などの未知の関心変数を、その解剖学的機能的影響を表す医用画像から予測する方法に対する関心が高まっている。
識別モデリングに基づく方法は、正確な予測を行うことに優れていますが、その決定を解剖学的に意味のある用語で説明する能力に課題があります。
この論文では、本質的に解釈可能な単一被験者の予測のための簡単な手法を提案します。
これは、根底にある因果関係をエンコードできる古典的な人間の脳マッピング技術で使用される生成モデルを、支配的な空間相関を捕捉する多変量ノイズ モデルで強化します。
実験では、結果として得られるモデルを効率的に反転して正確な被験者レベルの予測を行うことができると同時に、内部の仕組みを直感的に視覚的に説明できることが実証されています。
この方法は使いやすいです。一般的なトレーニング セット サイズではトレーニングが高速であり、ユーザーが設定する必要があるのは 1 つのハイパーパラメータだけです。
私たちのコードは https://github.com/chiara-mauri/Interpretable-subject-level-prediction で入手できます。

要約(オリジナル)

Recent years have seen a growing interest in methods for predicting an unknown variable of interest, such as a subject’s diagnosis, from medical images depicting its anatomical-functional effects. Methods based on discriminative modeling excel at making accurate predictions, but are challenged in their ability to explain their decisions in anatomically meaningful terms. In this paper, we propose a simple technique for single-subject prediction that is inherently interpretable. It augments the generative models used in classical human brain mapping techniques, in which the underlying cause-effect relations can be encoded, with a multivariate noise model that captures dominant spatial correlations. Experiments demonstrate that the resulting model can be efficiently inverted to make accurate subject-level predictions, while at the same time offering intuitive visual explanations of its inner workings. The method is easy to use: training is fast for typical training set sizes, and only a single hyperparameter needs to be set by the user. Our code is available at https://github.com/chiara-mauri/Interpretable-subject-level-prediction.

arxiv情報

著者 Chiara Mauri,Stefano Cerri,Oula Puonti,Mark Mühlau,Koen Van Leemput
発行日 2024-10-11 14:38:07+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG パーマリンク