Precise Location Matching Improves Dense Contrastive Learning in Digital Pathology

要約

セグメンテーションや病理学的エンティティの検出などの緻密な予測タスクは、デジタル病理ワークフローにおいて重要な臨床的価値を保持しています。
ただし、大規模なコホートで高密度の注釈を取得することは、通常、面倒で費用がかかります。
そのため、大量のラベルなしデータを活用してバックボーン ネットワークを事前トレーニングするために、対照学習 (CL) がよく使用されます。
密な予測の CL を高めるために、いくつかの研究では、事前トレーニングにおける密なマッチング目標のバリエーションが提案されています。
ただし、我々の分析は、組織病理画像に既存の密なマッチング戦略を採用すると、密な特徴の誤ったペア間の不変性が強制されるため、不正確であることを示しています。
これに対処するために、幾何学的変換間の重複情報を利用して2つの拡張で領域を正確に一致させる正確な位置ベースの一致メカニズムを提案します。
2 つの事前トレーニング データセット (TCGA-BRCA、NCT-CRC-HE) と 3 つのダウンストリーム データセット (GlaS、CRAG、BCSS) に関する広範な実験は、セマンティックおよびインスタンス セグメンテーション タスクにおける本手法の優位性を強調しています。
私たちの方法は、検出の平均精度で最大7.2%、インスタンスセグメンテーションタスクの平均精度で5.6%まで、以前の密なマッチング方法よりも優れています。
さらに、人気のある 3 つの対照学習フレームワークである MoCo-v2、VICRegL、および ConCL でマッチング メカニズムを使用することにより、検出の平均精度が 0.7 % から 5.2 % 向上し、セグメンテーションの平均精度が 0.7 % から 4.0 % 向上しました。
、その一般化可能性を示しています。

要約(オリジナル)

Dense prediction tasks such as segmentation and detection of pathological entities hold crucial clinical value in the digital pathology workflow. However, obtaining dense annotations on large cohorts is usually tedious and expensive. Contrastive learning (CL) is thus often employed to leverage large volumes of unlabeled data to pre-train the backbone network. To boost CL for dense prediction, some studies have proposed variations of dense matching objectives in pre-training. However, our analysis shows that employing existing dense matching strategies on histopathology images enforces invariance among incorrect pairs of dense features and, thus, is imprecise. To address this, we propose a precise location-based matching mechanism that utilizes the overlapping information between geometric transformations to precisely match regions in two augmentations. Extensive experiments on two pretraining datasets (TCGA-BRCA, NCT-CRC-HE) and three downstream datasets (GlaS, CRAG, BCSS) highlight the superiority of our method in semantic and instance segmentation tasks. Our method outperforms previous dense matching methods by up to 7.2 % in average precision for detection and 5.6 % in average precision for instance segmentation tasks. Additionally, by using our matching mechanism in the three popular contrastive learning frameworks, MoCo-v2, VICRegL and ConCL, the average precision in detection is improved by 0.7 % to 5.2 % and the average precision in segmentation is improved by 0.7 % to 4.0 %, demonstrating its generalizability.

arxiv情報

著者 Jingwei Zhang,Saarthak Kapse,Ke Ma,Prateek Prasanna,Maria Vakalopoulou,Joel Saltz,Dimitris Samaras
発行日 2022-12-23 02:11:27+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク