Prototype Learning for Explainable Regression

要約

説明可能性の欠如により、臨床現場での深層学習モデルの採用が制限されます。
このようなモデルの理解を向上させる方法は存在しますが、医療画像処理における多くの重要なタスクが連続回帰問題であるにもかかわらず、これらは主に顕著性に基づいており、分類のために開発されています。
したがって、この研究では、回帰タスク用に特別に設計された説明可能なプロトタイプベースのモデルである ExPeRT を紹介します。
私たちが提案するモデルは、プロトタイプ ラベルの加重平均を使用して、潜在空間内の学習されたプロトタイプのセットまでの距離からサンプル予測を行います。
潜在空間内の距離はラベルの差に相対するように正規化されており、各プロトタイプはトレーニング セットからのサンプルとして視覚化できます。
画像レベルの距離は、最適なトランスポートを使用して両方の画像のパッチが構造的に一致するパッチレベルの距離からさらに構築されます。
我々は、成人 MR と胎児超音波という 2 つの画像データセットに対する脳年齢予測タスクに関して提案したモデルを実証します。
私たちのアプローチは、モデルの推論プロセスに関する洞察を提供しながら、最先端の予測パフォーマンスを実現しました。

要約(オリジナル)

The lack of explainability limits the adoption of deep learning models in clinical practice. While methods exist to improve the understanding of such models, these are mainly saliency-based and developed for classification, despite many important tasks in medical imaging being continuous regression problems. Therefore, in this work, we present ExPeRT: an explainable prototype-based model specifically designed for regression tasks. Our proposed model makes a sample prediction from the distances to a set of learned prototypes in latent space, using a weighted mean of prototype labels. The distances in latent space are regularized to be relative to label differences, and each of the prototypes can be visualized as a sample from the training set. The image-level distances are further constructed from patch-level distances, in which the patches of both images are structurally matched using optimal transport. We demonstrate our proposed model on the task of brain age prediction on two image datasets: adult MR and fetal ultrasound. Our approach achieved state-of-the-art prediction performance while providing insight in the model’s reasoning process.

arxiv情報

著者 Linde S. Hesse,Nicola K. Dinsdale,Ana I. L. Namburete
発行日 2023-06-16 14:13:21+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク