要約
弱教師付きスライド全体画像分類は、通常、複数インスタンス学習 (MIL) 問題として定式化されます。この問題では、各スライドがバッグとして扱われ、そこから切り取られたパッチがインスタンスとして扱われます。
既存のメソッドは、擬似ラベル付けを通じてインスタンス分類子をトレーニングするか、アテンション メカニズムを通じてインスタンス特徴をバッグ特徴に集約してからバッグ分類子をトレーニングし、そこでアテンション スコアをインスタンス レベルの分類に使用できます。
ただし、前者によって構築された擬似インスタンス ラベルには通常、多くのノイズが含まれており、後者によって構築された注意スコアは十分に正確ではなく、どちらもパフォーマンスに影響します。
この論文では、インスタンス分類とバッグ分類タスクの両方を効果的に実行するための、対比学習とプロトタイプ学習に基づいたインスタンスレベルの MIL フレームワークを提案します。
この目的を達成するために、インスタンスの特徴表現を効果的に学習するために、MIL 設定の下で初めてインスタンスレベルの弱教師あり対比学習アルゴリズムを提案します。
また、プロトタイプ学習による高精度な擬似ラベル生成手法を提案します。
次に、弱教師あり対比学習、プロトタイプ学習、インスタンス分類器トレーニングのための共同トレーニング戦略を開発します。
4 つのデータセットに関する広範な実験と視覚化により、私たちの手法の強力なパフォーマンスが実証されています。
コードが利用可能になります。
要約(オリジナル)
Weakly supervised whole slide image classification is usually formulated as a multiple instance learning (MIL) problem, where each slide is treated as a bag, and the patches cut out of it are treated as instances. Existing methods either train an instance classifier through pseudo-labeling or aggregate instance features into a bag feature through attention mechanisms and then train a bag classifier, where the attention scores can be used for instance-level classification. However, the pseudo instance labels constructed by the former usually contain a lot of noise, and the attention scores constructed by the latter are not accurate enough, both of which affect their performance. In this paper, we propose an instance-level MIL framework based on contrastive learning and prototype learning to effectively accomplish both instance classification and bag classification tasks. To this end, we propose an instance-level weakly supervised contrastive learning algorithm for the first time under the MIL setting to effectively learn instance feature representation. We also propose an accurate pseudo label generation method through prototype learning. We then develop a joint training strategy for weakly supervised contrastive learning, prototype learning, and instance classifier training. Extensive experiments and visualizations on four datasets demonstrate the powerful performance of our method. Codes will be available.
arxiv情報
著者 | Linhao Qu,Yingfan Ma,Xiaoyuan Luo,Manning Wang,Zhijian Song |
発行日 | 2023-07-05 12:44:52+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google