Interpretable Medical Image Classification using Prototype Learning and Privileged Information

要約

多くの場合、医療画像処理では解釈可能性が必須の要件となります。
この説明可能性と高いパフォーマンスのニーズに対処するには、高度な深層学習手法が必要です。
この研究では、トレーニング プロセス中に利用可能な追加情報を使用して、理解しやすく強力なモデルを作成できるかどうかを調査します。
私たちは、カプセル ネットワーク、プロトタイプの学習、特権情報の使用の利点を活用する、Proto-Caps と呼ばれる革新的なソリューションを提案します。
提案されたソリューションを LIDC-IDRI データセットで評価すると、解釈可能性の向上と最先端の予測パフォーマンスが組み合わされていることがわかります。
説明可能なベースラインモデルと比較して、我々の方法は悪性度 (93.0 %) と肺結節の平均特徴の両方の予測において 6 % 以上高い精度を達成しています。
同時に、このモデルは、放射線科医が定義した属性の視覚的な検証を可能にするプロトタイプ表現を備えたケースベースの推論を提供します。

要約(オリジナル)

Interpretability is often an essential requirement in medical imaging. Advanced deep learning methods are required to address this need for explainability and high performance. In this work, we investigate whether additional information available during the training process can be used to create an understandable and powerful model. We propose an innovative solution called Proto-Caps that leverages the benefits of capsule networks, prototype learning and the use of privileged information. Evaluating the proposed solution on the LIDC-IDRI dataset shows that it combines increased interpretability with above state-of-the-art prediction performance. Compared to the explainable baseline model, our method achieves more than 6 % higher accuracy in predicting both malignancy (93.0 %) and mean characteristic features of lung nodules. Simultaneously, the model provides case-based reasoning with prototype representations that allow visual validation of radiologist-defined attributes.

arxiv情報

著者 Luisa Gallee,Meinrad Beer,Michael Goetz
発行日 2023-10-24 11:28:59+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク