要約
半教師あり学習は、大量のラベルなしデータを活用して追加情報を抽出できるため、医療画像のセグメンテーションにおいてますます一般的になってきています。
ただし、既存の半教師ありセグメンテーション手法のほとんどは、ラベルなしデータから情報を抽出することだけに焦点を当てており、ラベル付きデータがモデルのパフォーマンスをさらに向上させる可能性を無視しています。
この論文では、ラベル付きデータを活用してラベルなしデータからの情報抽出をガイドする新しい相関認識相互学習 (CAML) フレームワークを提案します。
私たちのアプローチは、クロスサンプル相互注意モジュール (CMA) と全相関一貫性モジュール (OCC) の 2 つのモジュールを組み込んだ相互学習戦略に基づいています。
CMA モジュールは、サンプルのグループ間で密なサンプル間の相関関係を確立し、ラベルの事前知識をラベルのないデータに転送できるようにします。
OCC モジュールは、ラベルなしデータセットとラベル付きデータセット間の全相関を構築し、各サブモデルの全相関行列が一貫しているように制約することで二重モデルを正規化します。
心房セグメンテーション チャレンジ データセットの実験では、私たちが提案したアプローチが最先端の方法よりも優れていることが実証され、医療画像セグメンテーション タスクにおけるフレームワークの有効性が強調されています。
コード、事前トレーニングされた重み、およびデータは公開されています。
要約(オリジナル)
Semi-supervised learning has become increasingly popular in medical image segmentation due to its ability to leverage large amounts of unlabeled data to extract additional information. However, most existing semi-supervised segmentation methods only focus on extracting information from unlabeled data, disregarding the potential of labeled data to further improve the performance of the model. In this paper, we propose a novel Correlation Aware Mutual Learning (CAML) framework that leverages labeled data to guide the extraction of information from unlabeled data. Our approach is based on a mutual learning strategy that incorporates two modules: the Cross-sample Mutual Attention Module (CMA) and the Omni-Correlation Consistency Module (OCC). The CMA module establishes dense cross-sample correlations among a group of samples, enabling the transfer of label prior knowledge to unlabeled data. The OCC module constructs omni-correlations between the unlabeled and labeled datasets and regularizes dual models by constraining the omni-correlation matrix of each sub-model to be consistent. Experiments on the Atrial Segmentation Challenge dataset demonstrate that our proposed approach outperforms state-of-the-art methods, highlighting the effectiveness of our framework in medical image segmentation tasks. The codes, pre-trained weights, and data are publicly available.
arxiv情報
著者 | Shengbo Gao,Ziji Zhang,Jiechao Ma,Zihao Li,Shu Zhang |
発行日 | 2023-07-12 17:20:05+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google