要約
医療上の意思決定には大きなリスクがあるため、医療画像分析における解釈可能な深層学習手法に対する切実な需要があります。
コンセプト ボトルネック モデル (CBM) は、人間が解釈可能な概念を意思決定に組み込んだアクティブな解釈可能なフレームワークとして登場しました。
しかし、その概念予測は臨床診断に適用すると信頼性に欠け、概念説明の質を損なう可能性があります。
これに対処するために、我々は証拠学習を利用して概念の不確実性をモデル化する証拠概念埋め込みモデル (evi-CEM) を提案します。
さらに、コンセプトの不確実性を利用して、完全なコンセプトの監督なしでビジョン言語モデルを使用して CBM をトレーニングするときに発生するコンセプトのずれを修正することも提案します。
提案された手法を使用すると、教師あり設定とラベル効率的な設定の両方で概念説明の信頼性を高めることができます。
さらに、効果的なテスト時間介入のために概念の不確実性を導入します。
私たちの評価では、evi-CEM が概念予測の点で優れたパフォーマンスを達成し、提案された概念修正により、ラベル効率の良いトレーニングのために概念のずれが効果的に軽減されることが実証されました。
私たちのコードは https://github.com/obiyoag/evi-CEM で入手できます。
要約(オリジナル)
Due to the high stakes in medical decision-making, there is a compelling demand for interpretable deep learning methods in medical image analysis. Concept Bottleneck Models (CBM) have emerged as an active interpretable framework incorporating human-interpretable concepts into decision-making. However, their concept predictions may lack reliability when applied to clinical diagnosis, impeding concept explanations’ quality. To address this, we propose an evidential Concept Embedding Model (evi-CEM), which employs evidential learning to model the concept uncertainty. Additionally, we offer to leverage the concept uncertainty to rectify concept misalignments that arise when training CBMs using vision-language models without complete concept supervision. With the proposed methods, we can enhance concept explanations’ reliability for both supervised and label-efficient settings. Furthermore, we introduce concept uncertainty for effective test-time intervention. Our evaluation demonstrates that evi-CEM achieves superior performance in terms of concept prediction, and the proposed concept rectification effectively mitigates concept misalignments for label-efficient training. Our code is available at https://github.com/obiyoag/evi-CEM.
arxiv情報
著者 | Yibo Gao,Zheyao Gao,Xin Gao,Yuanye Liu,Bomin Wang,Xiahai Zhuang |
発行日 | 2024-06-27 12:29:50+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google