Concept-Attention Whitening for Interpretable Skin Lesion Diagnosis

要約

深層学習モデルのブラックボックス的な性質により、実際の臨床アプリケーションでの展開を成功させるための解釈可能性について懸念が生じています。
この懸念に対処するために、eXplainable Artificial Intelligence (XAI) は、意思決定プロセスについて明確でわかりやすい説明を提供することを目指しています。
医療分野では、病変や異常の属性などの概念が診断結果を導き出すための重要な証拠となります。
既存の概念ベースのモデルは、主に独立して現れる概念に依存しており、境界ボックスなどのきめ細かい概念の注釈を必要とします。
ただし、通常、医療画像には複数の概念が含まれており、詳細な概念の注釈を取得するのは困難です。
この論文では、潜在空間の軸を既知の関心のある概念と一致させることによって、ディープ ニューラル ネットワークの表現を解釈することを目的としています。
我々は、解釈可能な皮膚病変診断のための新しいコンセプト・アテンション・ホワイトニング(CAW)フレームワークを提案します。
CAW は疾患診断ブランチと概念調整ブランチで構成されます。
前者のブランチでは、CAW 層を挿入して畳み込みニューラル ネットワーク (CNN) をトレーニングし、皮膚病変の診断を実行します。
CAW レイヤーは、特徴の相関を解除し、直交行列を介して画像の特徴を概念的な意味に合わせます。
後者のブランチでは、コンセプト アテンション マスクの指導の下で直交行列が計算されます。
特に、特定の概念に関連する局所領域をフィルタリングするために粗い概念ラベルのみを利用する弱教師概念マスク ジェネレーターを導入し、直交行列の最適化を向上させます。
2 つの公開皮膚病変診断データセットに対する広範な実験により、CAW が解釈可能性を向上させるだけでなく、最先端の診断性能を維持することが実証されました。

要約(オリジナル)

The black-box nature of deep learning models has raised concerns about their interpretability for successful deployment in real-world clinical applications. To address the concerns, eXplainable Artificial Intelligence (XAI) aims to provide clear and understandable explanations of the decision-making process. In the medical domain, concepts such as attributes of lesions or abnormalities serve as key evidence for deriving diagnostic results. Existing concept-based models mainly depend on concepts that appear independently and require fine-grained concept annotations such as bounding boxes. However, a medical image usually contains multiple concepts, and the fine-grained concept annotations are difficult to acquire. In this paper, we aim to interpret representations in deep neural networks by aligning the axes of the latent space with known concepts of interest. We propose a novel Concept-Attention Whitening (CAW) framework for interpretable skin lesion diagnosis. CAW is comprised of a disease diagnosis branch and a concept alignment branch. In the former branch, we train a convolutional neural network (CNN) with an inserted CAW layer to perform skin lesion diagnosis. The CAW layer decorrelates features and aligns image features to conceptual meanings via an orthogonal matrix. In the latter branch, the orthogonal matrix is calculated under the guidance of the concept attention mask. We particularly introduce a weakly-supervised concept mask generator that only leverages coarse concept labels for filtering local regions that are relevant to certain concepts, improving the optimization of the orthogonal matrix. Extensive experiments on two public skin lesion diagnosis datasets demonstrated that CAW not only enhanced interpretability but also maintained a state-of-the-art diagnostic performance.

arxiv情報

著者 Junlin Hou,Jilan Xu,Hao Chen
発行日 2024-11-06 12:06:03+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク