Shapley Values-enabled Progressive Pseudo Bag Augmentation for Whole Slide Image Classification

要約

計算病理学では、全スライド画像 (WSI) 分類は、そのギガピクセル解像度と限定されたきめ細かいアノテーションにより、大きな課題を抱えています。
複数インスタンス学習 (MIL) は、弱く監視されたソリューションを提供しますが、バッグレベルのラベルからインスタンスレベルの情報を絞り込むことは依然として困難です。
従来の MIL 手法のほとんどは、スライド ラベルの予測に寄与するインスタンス重要度スコア (IIS) を推定するために注意スコアを使用しますが、これらは多くの場合、注意の分布の偏りや、重要なインスタンスの識別の不正確さにつながります。
これらの問題に対処するために、私たちは協力ゲーム理論にヒントを得た新しいアプローチを提案します。それは、Shapley 値を使用して各インスタンスの寄与を評価し、それによって IIS 推定を改善するというものです。
その後、強化されたインスタンスの識別と優先順位付けを維持しながら、Shapley 値の計算がアテンションを使用して高速化されます。
さらに、推定された IIS に基づいて疑似バッグを段階的に割り当てるためのフレームワークを導入し、MIL モデルでのよりバランスのとれた注意分布を促進します。
CAMELYON-16、BRACS、TCGA-LUNG、TCGA-BRCA データセットに対する広範な実験により、既存の最先端のアプローチに対するこの手法の優位性が示され、解釈可能性とクラスごとの洞察が強化されました。
私たちのソース コードは https://github.com/RenaoYan/PMIL で入手できます。

要約(オリジナル)

In computational pathology, whole-slide image (WSI) classification presents a formidable challenge due to its gigapixel resolution and limited fine-grained annotations. Multiple-instance learning (MIL) offers a weakly supervised solution, yet refining instance-level information from bag-level labels remains challenging. While most of the conventional MIL methods use attention scores to estimate instance importance scores (IIS) which contribute to the prediction of the slide labels, these often lead to skewed attention distributions and inaccuracies in identifying crucial instances. To address these issues, we propose a new approach inspired by cooperative game theory: employing Shapley values to assess each instance’s contribution, thereby improving IIS estimation. The computation of the Shapley value is then accelerated using attention, meanwhile retaining the enhanced instance identification and prioritization. We further introduce a framework for the progressive assignment of pseudo bags based on estimated IIS, encouraging more balanced attention distributions in MIL models. Our extensive experiments on CAMELYON-16, BRACS, TCGA-LUNG, and TCGA-BRCA datasets show our method’s superiority over existing state-of-the-art approaches, offering enhanced interpretability and class-wise insights. Our source code is available at https://github.com/RenaoYan/PMIL.

arxiv情報

著者 Renao Yan,Qiehe Sun,Cheng Jin,Yiqing Liu,Yonghong He,Tian Guan,Hao Chen
発行日 2024-09-05 13:05:31+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク