Efficient Self-Supervision using Patch-based Contrastive Learning for Histopathology Image Segmentation

要約

ラベル付けされていないデータから識別可能な表現を学習することは困難な課題である。対照的自己教師あり学習は、単純な事前課題から学習した類似度測定の概念を用いて、意味のある表現を学習する枠組みを提供する。本研究では、画像パッチに対する対比学習を用いた、自己教師付き画像分割のためのシンプルで効率的なフレームワークを提案する。FCNNは自己教師付き学習により、入力画像の特徴を識別し、同じクラスに属するオブジェクトに関するネットワークの確信度を示す確信度マップを取得する。信頼度マップの平均エントロピーに基づいて正パッチと負パッチがサンプリングされ、対比学習が行われる。正パッチ間の情報分離が小さく、正負ペア間の情報分離が大きい場合に、収束が仮定される。提案手法は10.8k個のパラメータを持つ単純なFCNNから構成され,高解像度顕微鏡データセットでの収束に約5分必要であり,類似の自己教師付き手法と比較して桁違いに小さい性能を達成する.提案手法を2つの病理組織データセットから核をセグメンテーションするタスクで評価し、関連する自己教師付き手法や教師付き手法と同等の性能を示す。

要約(オリジナル)

Learning discriminative representations of unlabelled data is a challenging task. Contrastive self-supervised learning provides a framework to learn meaningful representations using learned notions of similarity measures from simple pretext tasks. In this work, we propose a simple and efficient framework for self-supervised image segmentation using contrastive learning on image patches, without using explicit pretext tasks or any further labeled fine-tuning. A fully convolutional neural network (FCNN) is trained in a self-supervised manner to discern features in the input images and obtain confidence maps which capture the network’s belief about the objects belonging to the same class. Positive- and negative- patches are sampled based on the average entropy in the confidence maps for contrastive learning. Convergence is assumed when the information separation between the positive patches is small, and the positive-negative pairs is large. The proposed model only consists of a simple FCNN with 10.8k parameters and requires about 5 minutes to converge on the high resolution microscopy datasets, which is orders of magnitude smaller than the relevant self-supervised methods to attain similar performance. We evaluate the proposed method for the task of segmenting nuclei from two histopathology datasets, and show comparable performance with relevant self-supervised and supervised methods.

arxiv情報

著者 Nicklas Boserup,Raghavendra Selvan
発行日 2023-01-03 08:45:20+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV, cs.LG パーマリンク