要約
顕微鏡画像セル セグメンテーションでは、さまざまな種類の顕微鏡画像を含むソース データでディープ ニューラル ネットワークをトレーニングし、ランダムに選択され、注釈が付けられたいくつかのトレーニング ターゲット画像で構成されるサポート セットを使用して微調整するのが一般的です。
この論文では、注釈を付けてサポートセットに含めるラベルのないトレーニングターゲット画像をランダムに選択すると、効果的な微調整プロセスが有効にならない可能性があるため、この画像選択プロセスを最適化する新しいアプローチを提案します。
私たちのアプローチには、有益なラベルのないターゲット画像を見つけるための新しいスコアリング関数が含まれます。
特に、特定のデータ拡張に対するターゲット画像のモデル予測の一貫性を測定することを提案します。
ただし、ソース データセットでトレーニングされたモデルは、ターゲット イメージの一貫性を確実に評価しないことがわかります。
この問題を軽減するために、ラベル付けされていないターゲット画像のスコアを計算するための新しい自己教師あり口実タスクを提案します。
最後に、一貫性スコアが最も低い上位のいくつかの画像がオラクル (つまり、エキスパート) 注釈のサポート セットに追加され、後でモデルをターゲット画像に微調整するために使用されます。
5 つの異なるタイプの細胞画像のセグメンテーションを含む評価では、シャノンのエントロピーやモンテカルロ ドロップアウトなどの他の選択アプローチと同様に、ランダム選択アプローチと比較して、いくつかのターゲット テスト セットで有望な結果を示しています。
要約(オリジナル)
In microscopy image cell segmentation, it is common to train a deep neural network on source data, containing different types of microscopy images, and then fine-tune it using a support set comprising a few randomly selected and annotated training target images. In this paper, we argue that the random selection of unlabelled training target images to be annotated and included in the support set may not enable an effective fine-tuning process, so we propose a new approach to optimise this image selection process. Our approach involves a new scoring function to find informative unlabelled target images. In particular, we propose to measure the consistency in the model predictions on target images against specific data augmentations. However, we observe that the model trained with source datasets does not reliably evaluate consistency on target images. To alleviate this problem, we propose novel self-supervised pretext tasks to compute the scores of unlabelled target images. Finally, the top few images with the least consistency scores are added to the support set for oracle (i.e., expert) annotation and later used to fine-tune the model to the target images. In our evaluations that involve the segmentation of five different types of cell images, we demonstrate promising results on several target test sets compared to the random selection approach as well as other selection approaches, such as Shannon’s entropy and Monte-Carlo dropout.
arxiv情報
著者 | Youssef Dawoud,Arij Bouazizi,Katharina Ernst,Gustavo Carneiro,Vasileios Belagiannis |
発行日 | 2022-11-18 14:03:49+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google