Multiple Instance Learning with random sampling for Whole Slide Image Classification

要約

計算病理学では、複数インスタンス学習 (MIL) 手法のトレーニング中のパッチのランダム サンプリングは計算効率が高く、正則化戦略として機能します。
その有望な利点にもかかわらず、さまざまなサンプルサイズに対するパフォーマンスの傾向とモデルの解釈可能性への影響については疑問が残ります。
これらに対処すると、CAMELYON16 データセットのパッチの 30% を使用して 1.7% の最適なパフォーマンス向上が達成され、TUPAC16 データセットの 8 つのサンプルのみを使用して 3.7% の最適なパフォーマンス向上が達成されました。
また、解釈可能性の効果はデータセットに強く依存しており、CAMELYON16 では解釈可能性が影響を受けますが、TUPAC16 では影響を受けません。
これは、サンプリングとのパフォーマンスと解釈可能性の関係がタスクごとに密接に関係していることを裏付けています。
1,024 個のサンプルを使用したエンドツーエンドのトレーニングでは、事前に抽出された特徴と比較して両方のデータセットにわたって改善が見られ、この効率的なアプローチの可能性がさらに強調されています。

要約(オリジナル)

In computational pathology, random sampling of patches during training of Multiple Instance Learning (MIL) methods is computationally efficient and serves as a regularization strategy. Despite its promising benefits, questions concerning performance trends for varying sample sizes and its influence on model interpretability remain. Addressing these, we reach an optimal performance enhancement of 1.7% using thirty percent of patches on the CAMELYON16 dataset, and 3.7% with only eight samples on the TUPAC16 dataset. We also find interpretability effects are strongly dataset-dependent, with interpretability impacted on CAMELYON16, while remaining unaffected on TUPAC16. This reinforces that both the performance and interpretability relationships with sampling are closely task-specific. End-to-end training with 1024 samples reveals improvements across both datasets compared to pre-extracted features, further highlighting the potential of this efficient approach.

arxiv情報

著者 H. Keshvarikhojasteh,J. P. W. Pluim,M. Veta
発行日 2024-03-08 14:31:40+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク