Learning Interpretable Microscopic Features of Tumor by Multi-task Adversarial CNNs To Improve Generalization

要約

一次診断の日常業務に畳み込みニューラル ネットワーク (CNN) を導入するには、ほぼ完璧な精度だけでなく、データ取得の変化と透明性に対する十分な程度の一般化も必要です。
既存の CNN モデルはブラック ボックスとして機能し、重要な診断機能がモデルで使用されていることを医師に保証していません。
この論文は、マルチタスク学習、ドメイン敵対的トレーニング、概念ベースの解釈可能性などの既存の成功した技術を基盤として、トレーニング目標に診断要素を導入するという課題に取り組んでいます。
ここでは、私たちのアーキテクチャが、マルチタスクと敵対的損失の不確実性ベースの重み付けの組み合わせをエンドツーエンドで学習することで、核の密度や多形性などの病理学的特徴に焦点を当てることが奨励されることを示します。
染色の違いなどの誤解を招く特徴を無視しながら、サイズや外観の変化を把握します。
乳房リンパ節組織に関する我々の結果は、ベースライン AUC 0.86 (0.005) に対して最良の平均 AUC 0.89 (0.01) であり、腫瘍組織の検出における全般性が大幅に向上していることを示しています。
中間表現を線形に探索する解釈可能技術を適用することにより、核密度などの解釈可能な病理学的特徴が提案された CNN アーキテクチャによって学習されることも実証し、このモデルの透明性が向上していることを確認します。
この結果は、データの異質性に強い、解釈可能なマルチタスク アーキテクチャの構築に向けた出発点となります。
私たちのコードは https://github.com/maragraziani/multitask_adversarial で入手できます。

要約(オリジナル)

Adopting Convolutional Neural Networks (CNNs) in the daily routine of primary diagnosis requires not only near-perfect precision, but also a sufficient degree of generalization to data acquisition shifts and transparency. Existing CNN models act as black boxes, not ensuring to the physicians that important diagnostic features are used by the model. Building on top of successfully existing techniques such as multi-task learning, domain adversarial training and concept-based interpretability, this paper addresses the challenge of introducing diagnostic factors in the training objectives. Here we show that our architecture, by learning end-to-end an uncertainty-based weighting combination of multi-task and adversarial losses, is encouraged to focus on pathology features such as density and pleomorphism of nuclei, e.g. variations in size and appearance, while discarding misleading features such as staining differences. Our results on breast lymph node tissue show significantly improved generalization in the detection of tumorous tissue, with best average AUC 0.89 (0.01) against the baseline AUC 0.86 (0.005). By applying the interpretability technique of linearly probing intermediate representations, we also demonstrate that interpretable pathology features such as nuclei density are learned by the proposed CNN architecture, confirming the increased transparency of this model. This result is a starting point towards building interpretable multi-task architectures that are robust to data heterogeneity. Our code is available at https://github.com/maragraziani/multitask_adversarial

arxiv情報

著者 Mara Graziani,Sebastian Otalora,Stephane Marchand-Maillet,Henning Muller,Vincent Andrearczyk
発行日 2023-06-21 12:25:28+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, eess.IV パーマリンク