要約
複数インスタンス学習(Multiple instance learning: MIL)は、弱教師付き機械学習のための効果的で広く使われているアプローチである。病理組織学では、MILモデルは腫瘍検出、バイオマーカー予測、予後予測などのタスクで目覚ましい成功を収めている。しかし、MILの説明手法は、小さなバッグサイズに制限されていたり、インスタンスの相互作用を無視していたりするため、まだ遅れをとっている。我々は説明可能なAI(XAI)のレンズを通してMILを再検討し、より一般的な仮定を持つ洗練されたフレームワークであるxMILを紹介する。我々は、レイヤーワイズ関連性伝播(LRP)を用いて改善されたMIL説明を得る方法を示し、3つのおもちゃ設定と4つの実世界の病理組織学データセットを用いて広範な評価実験を行う。我々のアプローチは、難易度の高いバイオマーカー予測タスクにおいて、特に忠実度のスコアが改善され、これまでの説明の試みを一貫して凌駕している。最後に、xMILの説明によって病理医がMILモデルからどのように洞察を引き出すことができるかを紹介し、デジタル病理組織学における知識発見とモデルのデバッグのための重要な進歩を示す。コードはhttps://github.com/tubml-pathology/xMIL。
要約(オリジナル)
Multiple instance learning (MIL) is an effective and widely used approach for weakly supervised machine learning. In histopathology, MIL models have achieved remarkable success in tasks like tumor detection, biomarker prediction, and outcome prognostication. However, MIL explanation methods are still lagging behind, as they are limited to small bag sizes or disregard instance interactions. We revisit MIL through the lens of explainable AI (XAI) and introduce xMIL, a refined framework with more general assumptions. We demonstrate how to obtain improved MIL explanations using layer-wise relevance propagation (LRP) and conduct extensive evaluation experiments on three toy settings and four real-world histopathology datasets. Our approach consistently outperforms previous explanation attempts with particularly improved faithfulness scores on challenging biomarker prediction tasks. Finally, we showcase how xMIL explanations enable pathologists to extract insights from MIL models, representing a significant advance for knowledge discovery and model debugging in digital histopathology. Codes are available at: https://github.com/tubml-pathology/xMIL.
arxiv情報
著者 | Julius Hense,Mina Jamshidi Idaji,Oliver Eberle,Thomas Schnake,Jonas Dippel,Laure Ciernik,Oliver Buchstab,Andreas Mock,Frederick Klauschen,Klaus-Robert Müller |
発行日 | 2024-11-04 17:02:45+00:00 |
arxivサイト | arxiv_id(pdf) |