Mine yOur owN Anatomy: Revisiting Medical Image Segmentation with Extremely Limited Labels

要約

対照学習に関する最近の研究は、医療画像セグメンテーションのコンテキストで少数のラベルを活用するだけで、驚くべきパフォーマンスを達成しました。
既存の方法は、主にインスタンス識別と不変マッピングに焦点を当てています。
ただし、これらは 3 つの一般的な落とし穴に直面しています。 (1) テールネス: 医療画像データは通常、暗黙的なロングテール クラス分布に従います。
したがって、トレーニングですべてのピクセルをやみくもに活用すると、データの不均衡の問題が発生し、パフォーマンスが低下する可能性があります。
(2)一貫性:異なる解剖学的特徴間のクラス内変動のために、セグメンテーションモデルが意味のある、まだ一貫した解剖学的特徴を学習したかどうかは不明のままです。
(3) 多様性: データセット全体のスライス内相関は、あまり注目されていません。
これにより、データセット自体を戦略的に利用して、異なる解剖学的ビューから類似しているが異なるサンプルを発見するための原則に基づいたアプローチを模索するようになります。
この論文では、自分自身の解剖学 (MONA) と呼ばれる新しい半教師付き医用画像セグメンテーション フレームワークを紹介し、3 つの貢献を行います。
まず、以前の研究では、すべてのピクセルがモデルのトレーニングに等しく重要であると主張しています。
主に監視信号が不足しているため、これだけでは意味のある解剖学的特徴を定義する可能性は低いことを経験的に観察しています。
不変性を学習するための 2 つの簡単な解決策を示します – より強力なデータ拡張と最近傍を使用することです。
次に、モデルが医療画像を教師なしで解剖学的特徴のコレクションに分解できるようにする一連の目的を構築します。
最後に、異なるラベル設定を使用した 3 つのベンチマーク データセットに関する広範な結果は、異なるラベル設定で新しい最先端を達成する提案された MONA の有効性を検証します。

要約(オリジナル)

Recent studies on contrastive learning have achieved remarkable performance solely by leveraging few labels in the context of medical image segmentation. Existing methods mainly focus on instance discrimination and invariant mapping. However, they face three common pitfalls: (1) tailness: medical image data usually follows an implicit long-tail class distribution. Blindly leveraging all pixels in training hence can lead to the data imbalance issues, and cause deteriorated performance; (2) consistency: it remains unclear whether a segmentation model has learned meaningful and yet consistent anatomical features due to the intra-class variations between different anatomical features; and (3) diversity: the intra-slice correlations within the entire dataset have received significantly less attention. This motivates us to seek a principled approach for strategically making use of the dataset itself to discover similar yet distinct samples from different anatomical views. In this paper, we introduce a novel semi-supervised medical image segmentation framework termed Mine yOur owN Anatomy (MONA), and make three contributions. First, prior work argues that every pixel equally matters to the model training; we observe empirically that this alone is unlikely to define meaningful anatomical features, mainly due to lacking the supervision signal. We show two simple solutions towards learning invariances – through the use of stronger data augmentations and nearest neighbors. Second, we construct a set of objectives that encourage the model to be capable of decomposing medical images into a collection of anatomical features in an unsupervised manner. Lastly, our extensive results on three benchmark datasets with different labeled settings validate the effectiveness of our proposed MONA which achieves new state-of-the-art under different labeled settings.

arxiv情報

著者 Chenyu You,Weicheng Dai,Fenglin Liu,Haoran Su,Xiaoran Zhang,Lawrence Staib,James S. Duncan
発行日 2022-09-27 15:50:31+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG, eess.IV パーマリンク