DU-Net based Unsupervised Contrastive Learning for Cancer Segmentation in Histology Images

要約

この論文では、組織像のための教師なし癌セグメンテーションフレームワークを紹介します。
フレームワークには、セグメンテーションのために特徴的な視覚的表現を抽出するための効果的な対照学習スキームが含まれます。
エンコーダーはDeepU-Net(DU-Net)構造であり、通常のU-Netと比較して完全な畳み込みレイヤーが追加されています。
対照的な学習スキームは、腫瘍の境界に高品質の注釈が付いたトレーニングセットが不足しているという問題を解決するために開発されました。
対照的な学習から学習した色の特徴の識別可能性を改善するために、特定のデータ拡張技術のセットが採用されています。
平滑化とノイズ除去は、畳み込み条件付き確率場を使用して実行されます。
実験は、いくつかの一般的な監視対象ネットワークよりも優れたセグメンテーションでの競争力のあるパフォーマンスを示しています。

要約(オリジナル)

In this paper, we introduce an unsupervised cancer segmentation framework for histology images. The framework involves an effective contrastive learning scheme for extracting distinctive visual representations for segmentation. The encoder is a Deep U-Net (DU-Net) structure that contains an extra fully convolution layer compared to the normal U-Net. A contrastive learning scheme is developed to solve the problem of lacking training sets with high-quality annotations on tumour boundaries. A specific set of data augmentation techniques are employed to improve the discriminability of the learned colour features from contrastive learning. Smoothing and noise elimination are conducted using convolutional Conditional Random Fields. The experiments demonstrate competitive performance in segmentation even better than some popular supervised networks.

arxiv情報

著者 Yilong Li,Yaqi Wang,Huiyu Zhou,Huaqiong Wang,Gangyong Jia,Qianni Zhang
発行日 2022-06-17 14:04:31+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV パーマリンク