要約
タイトル:医療画像セグメンテーションにおける自己教師あり学習の向上のための局所領域コントラスト
要約:
– 最近の自己教師あり学習の進歩により、未ラベルの画像から効果的な視覚表現を学ぶことができることが示され、特にラベルが手に入りにくい医療分野において、自己教師あり学習を適用することにますます関心が集まっている。
– しかし、ほとんどの自己教師あり学習アプローチは、画像レベルの識別または生成プロキシタスクとしてモデリングされており、多臓器セグメンテーションのような密な予測タスクのために必要なより細かいレベルの表現を捕捉することができない可能性がある。
– 本論文では、Felzenszwalbのアルゴリズムによってスーパーピクセルを識別し、新しいコントラストサンプリング損失を使用して局所コントラスト学習を実行することにより、局所領域コントラスト(LRC)を統合したコントラスティブ学習フレームワークを提案する。
– 3つの多臓器セグメンテーションデータセットでの豊富な実験により、限られた注釈設定で既存の自己教師あり方法にLRCを統合することがセグメンテーション性能を著しく改善することを示した。さらに、LRCを完全教師ありの事前トレーニング方法にも適用して、さらにパフォーマンスを向上させることができることを示した。
要約(オリジナル)
Recent advancements in self-supervised learning have demonstrated that effective visual representations can be learned from unlabeled images. This has led to increased interest in applying self-supervised learning to the medical domain, where unlabeled images are abundant and labeled images are difficult to obtain. However, most self-supervised learning approaches are modeled as image level discriminative or generative proxy tasks, which may not capture the finer level representations necessary for dense prediction tasks like multi-organ segmentation. In this paper, we propose a novel contrastive learning framework that integrates Localized Region Contrast (LRC) to enhance existing self-supervised pre-training methods for medical image segmentation. Our approach involves identifying Super-pixels by Felzenszwalb’s algorithm and performing local contrastive learning using a novel contrastive sampling loss. Through extensive experiments on three multi-organ segmentation datasets, we demonstrate that integrating LRC to an existing self-supervised method in a limited annotation setting significantly improves segmentation performance. Moreover, we show that LRC can also be applied to fully-supervised pre-training methods to further boost performance.
arxiv情報
著者 | Xiangyi Yan,Junayed Naushad,Chenyu You,Hao Tang,Shanlin Sun,Kun Han,Haoyu Ma,James Duncan,Xiaohui Xie |
発行日 | 2023-04-06 22:43:13+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI