要約
マルチ インスタンス学習 (MIL) は、弱教師機械学習に効果的で広く使用されているアプローチです。
組織病理学では、MIL モデルは腫瘍検出、バイオマーカー予測、転帰予測などのタスクで目覚ましい成功を収めています。
ただし、MIL の説明方法は、バッグのサイズが小さい場合に限定されたり、インスタンスの相互作用が無視されたりするため、依然として遅れています。
説明可能な AI (XAI) のレンズを通して MIL を再検討し、より一般的な前提を備えた洗練されたフレームワークである xMIL を紹介します。
私たちは、レイヤーワイズ関連性伝播 (LRP) を使用して改善された MIL 説明を取得する方法を示し、3 つのおもちゃの設定と 4 つの実際の組織病理学データセットで広範な評価実験を実施します。
私たちのアプローチは、一貫して以前の説明の試みを上回り、困難なバイオマーカー予測タスクにおける忠実度スコアが特に向上しました。
最後に、xMIL の説明により、病理学者が MIL モデルから洞察をどのように抽出できるかを紹介します。これは、デジタル組織病理学における知識の発見とモデルのデバッグが大幅に進歩したことを示しています。
要約(オリジナル)
Multiple instance learning (MIL) is an effective and widely used approach for weakly supervised machine learning. In histopathology, MIL models have achieved remarkable success in tasks like tumor detection, biomarker prediction, and outcome prognostication. However, MIL explanation methods are still lagging behind, as they are limited to small bag sizes or disregard instance interactions. We revisit MIL through the lens of explainable AI (XAI) and introduce xMIL, a refined framework with more general assumptions. We demonstrate how to obtain improved MIL explanations using layer-wise relevance propagation (LRP) and conduct extensive evaluation experiments on three toy settings and four real-world histopathology datasets. Our approach consistently outperforms previous explanation attempts with particularly improved faithfulness scores on challenging biomarker prediction tasks. Finally, we showcase how xMIL explanations enable pathologists to extract insights from MIL models, representing a significant advance for knowledge discovery and model debugging in digital histopathology.
arxiv情報
著者 | Julius Hense,Mina Jamshidi Idaji,Oliver Eberle,Thomas Schnake,Jonas Dippel,Laure Ciernik,Oliver Buchstab,Andreas Mock,Frederick Klauschen,Klaus-Robert Müller |
発行日 | 2024-06-06 17:26:40+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google