Self-supervised Learning of Dense Hierarchical Representations for Medical Image Segmentation

要約

この論文では、高密度の下流タスクに合わせてボクセル単位の粗密表現を学習するための自己教師ありフレームワークを実証します。
私たちのアプローチは、階層表現学習の既存の方法では、固有のアーキテクチャ上のバイアスにより、ローカルな特徴よりもグローバルな特徴を優先する傾向があるという観察に基づいています。
この課題に対処するために、私たちは複数のスケールからの特徴の寄与のバランスを取るトレーニング戦略を考案し、学習された表現が粗い詳細と細かい詳細の両方を確実に捕捉できるようにします。
私たちの戦略には、(1) ローカル データの拡張、(2) 階層的にバランスの取れたアーキテクチャ、(3) ハイブリッドのコントラストと修復の損失関数という 3 つの改善が組み込まれています。
CT および MRI データに関する手法を評価し、この新しいアプローチが限られた注釈付きデータでの微調整に特に有益であり、線形評価設定においてベースラインの対応物よりも一貫して優れていることを実証します。

要約(オリジナル)

This paper demonstrates a self-supervised framework for learning voxel-wise coarse-to-fine representations tailored for dense downstream tasks. Our approach stems from the observation that existing methods for hierarchical representation learning tend to prioritize global features over local features due to inherent architectural bias. To address this challenge, we devise a training strategy that balances the contributions of features from multiple scales, ensuring that the learned representations capture both coarse and fine-grained details. Our strategy incorporates 3-fold improvements: (1) local data augmentations, (2) a hierarchically balanced architecture, and (3) a hybrid contrastive-restorative loss function. We evaluate our method on CT and MRI data and demonstrate that our new approach particularly beneficial for fine-tuning with limited annotated data and consistently outperforms the baseline counterpart in linear evaluation settings.

arxiv情報

著者 Eytan Kats,Jochen G. Hirsch,Mattias P. Heinrich
発行日 2024-01-12 09:47:17+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク