Consistency Regularisation in Varying Contexts and Feature Perturbations for Semi-Supervised Semantic Segmentation of Histology Images

要約

組織学画像におけるさまざまな組織および核タイプのセマンティック セグメンテーションは、計算病理学 (CPath) の分野における多くのダウンストリーム タスクの基本です。
近年、深層学習 (DL) メソッドはセグメンテーション タスクでうまく機能することが示されていますが、DL メソッドは一般に大量のピクセル単位の注釈付きデータを必要とします。
ピクセル単位の注釈には、専門家の知識と時間が必要な場合があり、取得には手間とコストがかかります。
このホワイト ペーパーでは、モデル トレーニングに大量のラベルなしデータを利用することでこの課題を軽減し、大規模な注釈付きデータセットの必要性を軽減する、一貫性に基づく半教師あり学習 (SSL) アプローチを紹介します。
ただし、SSL モデルはコンテキストの変化の影響を受けやすく、トレーニング データが限られているため、一般化が不十分な摂動を特徴とします。
さまざまなコンテキストと機能の摂動に対して一貫性を確保することにより、ラベル付き画像とラベルなし画像の両方から堅牢な機能を学習する SSL メソッドを提案します。
提案された方法は、ロバストでコンテキスト不変の特徴をもたらす変化するコンテキストからピクセル単位の方法で重なり合う画像のペアを対比することにより、コンテキストを意識した一貫性を組み込みます。
相互一貫性トレーニングにより、エンコーダー機能がさまざまな摂動に対して不変になり、予測の信頼性が向上することを示します。
最後に、エントロピー最小化を使用して、ラベル付けされていないデータからの最終的な予測マップの信頼性をさらに高めます。
公開されている 2 つの大規模なデータセット (BCSS と MoNuSeg) に対して一連の広範な実験を実施し、最先端の方法と比較して優れたパフォーマンスを示しています。

要約(オリジナル)

Semantic segmentation of various tissue and nuclei types in histology images is fundamental to many downstream tasks in the area of computational pathology (CPath). In recent years, Deep Learning (DL) methods have been shown to perform well on segmentation tasks but DL methods generally require a large amount of pixel-wise annotated data. Pixel-wise annotation sometimes requires expert’s knowledge and time which is laborious and costly to obtain. In this paper, we present a consistency based semi-supervised learning (SSL) approach that can help mitigate this challenge by exploiting a large amount of unlabelled data for model training thus alleviating the need for a large annotated dataset. However, SSL models might also be susceptible to changing context and features perturbations exhibiting poor generalisation due to the limited training data. We propose an SSL method that learns robust features from both labelled and unlabelled images by enforcing consistency against varying contexts and feature perturbations. The proposed method incorporates context-aware consistency by contrasting pairs of overlapping images in a pixel-wise manner from changing contexts resulting in robust and context invariant features. We show that cross-consistency training makes the encoder features invariant to different perturbations and improves the prediction confidence. Finally, entropy minimisation is employed to further boost the confidence of the final prediction maps from unlabelled data. We conduct an extensive set of experiments on two publicly available large datasets (BCSS and MoNuSeg) and show superior performance compared to the state-of-the-art methods.

arxiv情報

著者 Raja Muhammad Saad Bashir,Talha Qaiser,Shan E Ahmed Raza,Nasir M. Rajpoot
発行日 2023-01-30 18:21:57+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク