要約
一次診断の日常業務に畳み込みニューラルネットワーク(CNN)を採用するには、ほぼ完全な精度だけでなく、データ取得のシフトと透明性に対する十分な一般化も必要です。
既存のCNNモデルはブラックボックスとして機能し、重要な診断機能がモデルによって使用されていることを医師に保証しません。
マルチタスク学習、ドメイン敵対的トレーニング、概念ベースの解釈可能性などの既存の技術に加えて、このペーパーでは、トレーニングの目的に診断要素を導入するという課題に取り組んでいます。
ここでは、マルチタスク損失と敵対的損失の不確実性に基づく重み付けの組み合わせをエンドツーエンドで学習することにより、アーキテクチャが核の密度や多形性などの病理学的特徴に焦点を当てるように促されることを示します。
染色の違いなどの誤解を招く機能を破棄しながら、サイズと外観のバリエーション。
乳房リンパ節組織に関する我々の結果は、腫瘍組織の検出において有意に改善された一般化を示しており、ベースラインAUC 0.86(0.005)に対して最高の平均AUC 0.89(0.01)を示しています。
中間表現を線形にプローブする解釈可能性手法を適用することにより、核密度などの解釈可能な病理学的特徴が提案されたCNNアーキテクチャによって学習されることも示し、このモデルの透明性の向上を確認します。
この結果は、データの不均一性に対して堅牢な解釈可能なマルチタスクアーキテクチャを構築するための出発点です。
私たちのコードはhttps://bit.ly/356yQ2uで入手できます。
要約(オリジナル)
Adopting Convolutional Neural Networks (CNNs) in the daily routine of primary diagnosis requires not only near-perfect precision, but also a sufficient degree of generalization to data acquisition shifts and transparency. Existing CNN models act as black boxes, not ensuring to the physicians that important diagnostic features are used by the model. Building on top of successfully existing techniques such as multi-task learning, domain adversarial training and concept-based interpretability, this paper addresses the challenge of introducing diagnostic factors in the training objectives. Here we show that our architecture, by learning end-to-end an uncertainty-based weighting combination of multi-task and adversarial losses, is encouraged to focus on pathology features such as density and pleomorphism of nuclei, e.g. variations in size and appearance, while discarding misleading features such as staining differences. Our results on breast lymph node tissue show significantly improved generalization in the detection of tumorous tissue, with best average AUC 0.89 (0.01) against the baseline AUC 0.86 (0.005). By applying the interpretability technique of linearly probing intermediate representations, we also demonstrate that interpretable pathology features such as nuclei density are learned by the proposed CNN architecture, confirming the increased transparency of this model. This result is a starting point towards building interpretable multi-task architectures that are robust to data heterogeneity. Our code is available at https://bit.ly/356yQ2u.
arxiv情報
著者 | Mara Graziani,Sebastian Otalora,Stephane Marchand-Maillet,Henning Muller,Vincent Andrearczyk |
発行日 | 2022-07-13 12:47:14+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google