Differentiable Zooming for Multiple Instance Learning on Whole-Slide Images

要約

デジタル病理診断において、ギガピクセルサイズのWhole-Slide Image(WSI)を分類するために、Multiple Instance Learning(MIL)法がますます普及してきている。ほとんどのMIL手法は、すべての組織パッチを処理することにより、単一のWSI倍率で動作する。このような方式は高い計算量を必要とし、WSIレベルの表現の文脈化が単一のスケールに制限される。いくつかのMIL法は複数のスケールに拡張しているが、計算負荷が高い。本論文では、病理診断プロセスに着想を得て、エンドツーエンドで多段階のズームを行うことを学習する手法であるZoomMILを提案する。ZoomMILは、複数倍率の組織コンテキスト情報を集約することでWSI表現を構築する。提案手法は、2つの大規模データセットにおいて、WSI分類において最先端のMIL手法を上回り、浮動小数点演算(FLOPs)と処理時間に関する計算量を最大40倍まで大幅に削減することが可能である。

要約(オリジナル)

Multiple Instance Learning (MIL) methods have become increasingly popular for classifying giga-pixel sized Whole-Slide Images (WSIs) in digital pathology. Most MIL methods operate at a single WSI magnification, by processing all the tissue patches. Such a formulation induces high computational requirements, and constrains the contextualization of the WSI-level representation to a single scale. A few MIL methods extend to multiple scales, but are computationally more demanding. In this paper, inspired by the pathological diagnostic process, we propose ZoomMIL, a method that learns to perform multi-level zooming in an end-to-end manner. ZoomMIL builds WSI representations by aggregating tissue-context information from multiple magnifications. The proposed method outperforms the state-of-the-art MIL methods in WSI classification on two large datasets, while significantly reducing the computational demands with regard to Floating-Point Operations (FLOPs) and processing time by up to 40x.

arxiv情報

著者 Kevin Thandiackal,Boqi Chen,Pushpak Pati,Guillaume Jaume,Drew F. K. Williamson,Maria Gabrani,Orcun Goksel
発行日 2022-06-07 08:26:57+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV パーマリンク