Annotation by Clicks: A Point-Supervised Contrastive Variance Method for Medical Semantic Segmentation

要約

医用画像のセグメンテーション方法は、通常、モデルのトレーニングに多数の高密度の注釈付き画像に依存していますが、これは収集に費用と時間がかかることで知られています。
この負担を軽減するために、より安価なアノテーションを使用してセグメンテーション モデルをトレーニングするために、弱く監視された手法が利用されてきました。
この論文では、医用画像セマンティックセグメンテーションのための新しいポイント教師付きコントラスト分散法 (PSCV) を提案します。これは、各臓器カテゴリから 1 つのピクセルポイントのみに注釈を付ける必要があります。
提案された方法は、新しい対照分散 (CV) 損失を使用してラベルのないピクセルと部分的なクロスエントロピー損失をラベル付きピクセルに利用することにより、ベース セグメンテーション ネットワークをトレーニングします。
CV 損失関数は、医療画像内の臓器の統計的な空間分布特性とそれらの分散分布マップ表現を利用して、ラベルのないピクセルに対して差別的な予測を適用するように設計されています。
2 つの標準的な医用画像データセットに関する実験結果は、提案された方法が点教師付き医用画像セマンティック セグメンテーション タスクでの最先端の弱教師付き方法よりも優れていることを示しています。

要約(オリジナル)

Medical image segmentation methods typically rely on numerous dense annotated images for model training, which are notoriously expensive and time-consuming to collect. To alleviate this burden, weakly supervised techniques have been exploited to train segmentation models with less expensive annotations. In this paper, we propose a novel point-supervised contrastive variance method (PSCV) for medical image semantic segmentation, which only requires one pixel-point from each organ category to be annotated. The proposed method trains the base segmentation network by using a novel contrastive variance (CV) loss to exploit the unlabeled pixels and a partial cross-entropy loss on the labeled pixels. The CV loss function is designed to exploit the statistical spatial distribution properties of organs in medical images and their variance distribution map representations to enforce discriminative predictions over the unlabeled pixels. Experimental results on two standard medical image datasets demonstrate that the proposed method outperforms the state-of-the-art weakly supervised methods on point-supervised medical image semantic segmentation tasks.

arxiv情報

著者 Qing En,Yuhong Guo
発行日 2022-12-23 02:14:09+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG パーマリンク