Which Pixel to Annotate: a Label-Efficient Nuclei Segmentation Framework

要約

最近、大量の注釈付きサンプルを必要とするディープ ニューラル ネットワークが、H&E 染色病理画像の核インスタンス セグメンテーションに広く適用されています。
ただし、通常は類似した冗長なパターンを含む核画像のデータセットのすべてのピクセルにラベルを付けるのは非効率的であり、不必要です。
教師なしおよび半教師ありの学習方法が核セグメンテーションのために研究されてきましたが、注釈の作業負荷を軽減するためにサンプルの選択的ラベル付けを掘り下げた研究はほとんどありません。
したがって、この論文では、注釈を付けるためにいくつかの画像パッチのみを選択し、選択したサンプルからトレーニングセットを増強し、半教師あり方法で核セグメンテーションを達成する、新しい完全な核セグメンテーションフレームワークを提案します。
提案されたフレームワークでは、最初に新しい一貫性ベースのパッチ選択方法を開発して、どの画像パッチがトレーニングに最も有益であるかを判断します。
次に、コンポーネントごとの識別器を備えた条件付き単一画像 GAN を導入して、より多くのトレーニング サンプルを合成します。
最後に、提案されたフレームワークは、上記の拡張サンプルを使用して既存のセグメンテーション モデルをトレーニングします。
実験結果は、提案された方法が、いくつかのベンチマークで 5% 未満のピクセルに注釈を付けることによって、完全に監視されたベースラインと同じレベルのパフォーマンスを得ることができることを示しています。

要約(オリジナル)

Recently deep neural networks, which require a large amount of annotated samples, have been widely applied in nuclei instance segmentation of H\&E stained pathology images. However, it is inefficient and unnecessary to label all pixels for a dataset of nuclei images which usually contain similar and redundant patterns. Although unsupervised and semi-supervised learning methods have been studied for nuclei segmentation, very few works have delved into the selective labeling of samples to reduce the workload of annotation. Thus, in this paper, we propose a novel full nuclei segmentation framework that chooses only a few image patches to be annotated, augments the training set from the selected samples, and achieves nuclei segmentation in a semi-supervised manner. In the proposed framework, we first develop a novel consistency-based patch selection method to determine which image patches are the most beneficial to the training. Then we introduce a conditional single-image GAN with a component-wise discriminator, to synthesize more training samples. Lastly, our proposed framework trains an existing segmentation model with the above augmented samples. The experimental results show that our proposed method could obtain the same-level performance as a fully-supervised baseline by annotating less than 5% pixels on some benchmarks.

arxiv情報

著者 Wei Lou,Haofeng Li,Guanbin Li,Xiaoguang Han,Xiang Wan
発行日 2022-12-20 14:53:26+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, I.4.6 パーマリンク