Snuffy: Efficient Whole Slide Image Classifier

要約

デジタルパソロジーにおけるマルチインスタンス学習 (MIL) を使用したホールスライド画像 (WSI) 分類は、重大な計算上の課題に直面しています。
現在の手法は、満足のいくパフォーマンスを得るために大規模な自己教師あり学習 (SSL) に依存していることが多く、長いトレーニング期間とかなりの計算リソースが必要です。
同時に、自然画像から WSI へのドメインの移行により、事前トレーニングがパフォーマンスに影響を与えることはありません。
\textbf{\textit{Snuffy}} アーキテクチャを導入します。これは、限られた事前トレーニングでパフォーマンスの損失を軽減し、競争力のあるオプションとして継続的な少数ショットの事前トレーニングを可能にする、スパース トランスフォーマーに基づく新しい MIL プーリング手法です。
私たちのスパース パターンは病理学に合わせて調整されており、スパース トランスフォーマーの層数に関して、これまでで最も厳密な確率的シャープ バウンドを備えた普遍的な近似器であることが理論的に証明されています。
私たちは CAMELYON16 および TCGA 肺がんデータセットに対する Snuffy の有効性を実証し、優れた WSI およびパッチレベルの精度を達成しました。
コードは \url{https://github.com/jafarinia/snuffy} で入手できます。

要約(オリジナル)

Whole Slide Image (WSI) classification with multiple instance learning (MIL) in digital pathology faces significant computational challenges. Current methods mostly rely on extensive self-supervised learning (SSL) for satisfactory performance, requiring long training periods and considerable computational resources. At the same time, no pre-training affects performance due to domain shifts from natural images to WSIs. We introduce \textbf{\textit{Snuffy}} architecture, a novel MIL-pooling method based on sparse transformers that mitigates performance loss with limited pre-training and enables continual few-shot pre-training as a competitive option. Our sparsity pattern is tailored for pathology and is theoretically proven to be a universal approximator with the tightest probabilistic sharp bound on the number of layers for sparse transformers, to date. We demonstrate Snuffy’s effectiveness on CAMELYON16 and TCGA Lung cancer datasets, achieving superior WSI and patch-level accuracies. The code is available on \url{https://github.com/jafarinia/snuffy}.

arxiv情報

著者 Hossein Jafarinia,Alireza Alipanah,Danial Hamdi,Saeed Razavi,Nahal Mirzaie,Mohammad Hossein Rohban
発行日 2024-08-15 16:59:15+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG, cs.NE, eess.IV パーマリンク