Mixing Histopathology Prototypes into Robust Slide-Level Representations for Cancer Subtyping

要約

計算病理学によるスライド全体の画像解析は、多くの場合、利用可能なスライド レベルのラベルのみを使用してモザイク化されたギガピクセル画像を処理することに依存します。
複数のインスタンスの学習ベースの手法やトランスフォーマー モデルを適用すると、画像ごとにすべてのインスタンスを同時に処理する必要があるため、計算コストが高くなります。
MLP-Mixer は、特に大規模なデータセット向けに、一般的なビジョン トランスフォーマーの代替モデルとして十分に検討されていません。
セルフ アテンション メカニズムが欠如しているため、入力パッチの数に対して線形の計算複雑性を持ちますが、自然画像データセットでは同等のパフォーマンスを達成します。
私たちは、スライド全体の画像を前処理して、適切な MLP ミキサー アーキテクチャへの入力として機能できる縮小プロトタイプ表現にするための、特徴の埋め込みとクラスタリングの組み合わせを提案します。
2 つの公開ベンチマークと 1 つの社内悪性リンパ腫データセットでの実験では、現在の最先端の手法と同等のパフォーマンスを示しながら、計算時間とメモリ負荷の点でトレーニング コストの削減を実現しました。
コードは https://github.com/butkej/ProtoMixer で公開されています。

要約(オリジナル)

Whole-slide image analysis via the means of computational pathology often relies on processing tessellated gigapixel images with only slide-level labels available. Applying multiple instance learning-based methods or transformer models is computationally expensive as, for each image, all instances have to be processed simultaneously. The MLP-Mixer is an under-explored alternative model to common vision transformers, especially for large-scale datasets. Due to the lack of a self-attention mechanism, they have linear computational complexity to the number of input patches but achieve comparable performance on natural image datasets. We propose a combination of feature embedding and clustering to preprocess the full whole-slide image into a reduced prototype representation which can then serve as input to a suitable MLP-Mixer architecture. Our experiments on two public benchmarks and one inhouse malignant lymphoma dataset show comparable performance to current state-of-the-art methods, while achieving lower training costs in terms of computational time and memory load. Code is publicly available at https://github.com/butkej/ProtoMixer.

arxiv情報

著者 Joshua Butke,Noriaki Hashimoto,Ichiro Takeuchi,Hiroaki Miyoshi,Koichi Ohshima,Jun Sakuma
発行日 2023-10-19 14:15:20+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク