Overcoming Dimensional Collapse in Self-supervised Contrastive Learning for Medical Image Segmentation

要約

自己教師あり学習 (SSL) アプローチは、ラベル付きデータの量が限られている場合に大きな成功を収めています。
SSL 内では、モデルはプレテキスト タスクを解決することで堅牢な特徴表現を学習します。
このような口実タスクの 1 つは対照学習です。これには、類似した入力サンプルと異なる入力サンプルのペアを形成し、それらを区別するようにモデルを誘導することが含まれます。
この研究では、医療画像解析の領域への対照学習の応用を調査します。
私たちの調査結果は、最先端の対照学習法である MoCo v2 が医療画像に適用されると次元崩壊に遭遇することを明らかにしました。
これは、医療画像間で共有される高度な画像間の類似性によるものです。
これに対処するために、ローカル特徴学習と特徴非相関という 2 つの重要な貢献を提案します。
局所特徴学習により、画像の局所領域に焦点を合わせるモデルの能力が向上し、一方、特徴非相関化により特徴間の線形依存性が除去されます。
私たちの実験結果は、私たちの貢献により、線形評価と完全な微調整設定の両方で、医療セグメンテーションの下流タスクにおけるモデルのパフォーマンスが大幅に向上することを示しています。
この研究は、SSL 技術を医療画像処理タスクの特性に効果的に適応させることの重要性を示しています。

要約(オリジナル)

Self-supervised learning (SSL) approaches have achieved great success when the amount of labeled data is limited. Within SSL, models learn robust feature representations by solving pretext tasks. One such pretext task is contrastive learning, which involves forming pairs of similar and dissimilar input samples, guiding the model to distinguish between them. In this work, we investigate the application of contrastive learning to the domain of medical image analysis. Our findings reveal that MoCo v2, a state-of-the-art contrastive learning method, encounters dimensional collapse when applied to medical images. This is attributed to the high degree of inter-image similarity shared between the medical images. To address this, we propose two key contributions: local feature learning and feature decorrelation. Local feature learning improves the ability of the model to focus on the local regions of the image, while feature decorrelation removes the linear dependence among the features. Our experimental findings demonstrate that our contributions significantly enhance the model’s performance in the downstream task of medical segmentation, both in the linear evaluation and full fine-tuning settings. This work illustrates the importance of effectively adapting SSL techniques to the characteristics of medical imaging tasks.

arxiv情報

著者 Jamshid Hassanpour,Vinkle Srivastav,Didier Mutter,Nicolas Padoy
発行日 2024-02-22 15:02:13+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク