Equipping Computational Pathology Systems with Artifact Processing Pipelines: A Showcase for Computation and Performance Trade-offs

要約

組織病理学は、顕微鏡検査によるがん診断のゴールドスタンダードです。
ただし、組織学的組織処理手順ではアーチファクトが生じ、最終的にはスライド全体画像 (WSI) として知られるデジタル化されたスライド ガラスに転写されます。
アーティファクトは診断的には無関係な領域であり、ディープ ラーニング (DL) アルゴリズムの誤った予測につながる可能性があります。
したがって、信頼性の高い自動診断には、CPATH (Computational Pathology) システムでアーチファクトを検出して除外することが不可欠です。
この論文では、損傷組織、ぼやけ、折り畳まれた組織、気泡、WSI からの組織学的に無関係な血液を含む 5 つの注目すべきアーチファクトを検出するための専門家混合 (MoE) スキームを提案します。
まず、特定のアーティファクト形態を捕捉するための専門家として独立したバイナリ DL モデルをトレーニングします。
次に、融合メカニズムを使用してそれらの予測をアンサンブルします。
MoE の感度を向上させるために、最終的な確率分布に確率的しきい値処理を適用します。
私たちは、2 つの MoE と、最先端のディープ畳み込みニューラル ネットワーク (DCNN) とビジョン トランスフォーマー (ViT) の 2 つのマルチクラス モデルを使用して DL パイプラインを開発しました。
DCNN ベースの MoE および ViT ベースの MoE スキームは、より単純なマルチクラス モデルよりも優れたパフォーマンスを示し、さまざまな病院およびがんの種類からのデータセットでテストされました。DCNN を使用した MoE が最良の結果をもたらしました。
提案された MoE は、目に見えないデータに対して 86.15% の F1 スコアと 97.93% の感度スコアを生成し、ViT を使用する MoE よりも推論のための計算コストを抑えます。
MoE のこの最高のパフォーマンスには、マルチクラス モデルよりも比較的高い計算上のトレードオフが伴います。
提案されたアーティファクト検出パイプラインは、信頼性の高い CPATH 予測を保証するだけでなく、品質管理も提供する可能性があります。

要約(オリジナル)

Histopathology is a gold standard for cancer diagnosis under a microscopic examination. However, histological tissue processing procedures result in artifacts, which are ultimately transferred to the digitized version of glass slides, known as whole slide images (WSIs). Artifacts are diagnostically irrelevant areas and may result in wrong deep learning (DL) algorithms predictions. Therefore, detecting and excluding artifacts in the computational pathology (CPATH) system is essential for reliable automated diagnosis. In this paper, we propose a mixture of experts (MoE) scheme for detecting five notable artifacts, including damaged tissue, blur, folded tissue, air bubbles, and histologically irrelevant blood from WSIs. First, we train independent binary DL models as experts to capture particular artifact morphology. Then, we ensemble their predictions using a fusion mechanism. We apply probabilistic thresholding over the final probability distribution to improve the sensitivity of the MoE. We developed DL pipelines using two MoEs and two multiclass models of state-of-the-art deep convolutional neural networks (DCNNs) and vision transformers (ViTs). DCNNs-based MoE and ViTs-based MoE schemes outperformed simpler multiclass models and were tested on datasets from different hospitals and cancer types, where MoE using DCNNs yielded the best results. The proposed MoE yields 86.15% F1 and 97.93% sensitivity scores on unseen data, retaining less computational cost for inference than MoE using ViTs. This best performance of MoEs comes with relatively higher computational trade-offs than multiclass models. The proposed artifact detection pipeline will not only ensure reliable CPATH predictions but may also provide quality control.

arxiv情報

著者 Neel Kanwal,Farbod Khoraminia,Umay Kiraz,Andres Mosquera-Zamudio,Carlos Monteagudo,Emiel A. M. Janssen,Tahlita C. M. Zuiverloon,Chunmig Rong,Kjersti Engan
発行日 2024-03-13 11:20:19+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG, eess.IV パーマリンク