要約
半教師あり学習 (SSL) は、医療画像分類における高いアノテーション コストを軽減するための一般的なソリューションです。
SSL の主要なブランチである一貫性正則化は、絶対位置一貫性 (AL-c) と呼ばれる、異なるビューからの単一サンプルの予測間のコンセンサスを課すことに関与します。
ただし、AL-cだけでは不十分な場合があります。
実際に症例を診断するときと同じように、医師は通常、症例そのもののほかに、より信頼できる決定を下すために関連する信頼できる特定の症例を参照します。 したがって、AL-c のみに依存すると、サンプル間の相対的な違いが無視される可能性があると主張します。
相対的な位置として解釈し、1 つの観点からの限られた情報のみを活用します。
この問題に対処するために、AL c を組み込むだけでなく、相対位置一貫性 (RL c) と呼ばれる、サンプルの相対的な類似性とその関連サンプルの間の一貫性をさらに強制するサンプル一貫性平均教師 (SCMT) を提案します。
AL c と RL c は、2 つの異なる観点から一貫性正則化を実行し、分類のためのより多様な意味情報を共同で抽出します。
一方、医療画像内の構造は非常に類似しているため、サンプル分布が特徴空間内で過度に密になり、サンプルの相対位置がノイズの影響を受けやすくなる可能性があります。
この問題に取り組むために、対照学習を利用してサンプル分布を疎化し、ロバストで効果的な相対位置を取得することにより、サンプル散乱平均教師 (SSMT) をさらに開発します。
さまざまなデータセットでの広範な実験により、私たちの方法の優位性が実証されました。
要約(オリジナル)
Semi-supervised learning (SSL) is a popular solution to alleviate the high annotation cost in medical image classification. As a main branch of SSL, consistency regularization engages in imposing consensus between the predictions of a single sample from different views, termed as Absolute Location consistency (AL-c). However, only AL-c may be insufficient. Just like when diagnosing a case in practice, besides the case itself, the doctor usually refers to certain related trustworthy cases to make more reliable decisions.Therefore, we argue that solely relying on AL-c may ignore the relative differences across samples, which we interpret as relative locations, and only exploit limited information from one perspective. To address this issue, we propose a Sample Consistency Mean Teacher (SCMT) which not only incorporates AL c but also additionally enforces consistency between the samples’ relative similarities to its related samples, called Relative Location consistency (RL c). AL c and RL c conduct consistency regularization from two different perspectives, jointly extracting more diverse semantic information for classification. On the other hand, due to the highly similar structures in medical images, the sample distribution could be overly dense in feature space, making their relative locations susceptible to noise. To tackle this problem, we further develop a Sample Scatter Mean Teacher (SSMT) by utilizing contrastive learning to sparsify the sample distribution and obtain robust and effective relative locations. Extensive experiments on different datasets demonstrate the superiority of our method.
arxiv情報
著者 | Zhang Qixiang,Yang Yuxiang,Zu Chen,Zhang Jianjia,Wu Xi,Zhou Jiliu,Wang Yan |
発行日 | 2024-11-05 12:24:28+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google