要約
深層学習ベースの医療画像セグメンテーション研究の最近の進歩により、完全に監視された方法でほぼ人間レベルのパフォーマンスが達成されています。
ただし、医療画像分野では、ピクセルレベルのエキスパートアノテーションの取得は非常に費用がかかり、手間がかかります。
教師なしドメイン アダプテーション (UDA) はこの問題を軽減できます。これにより、1 つのイメージング モダリティで注釈付きデータを使用して、ラベルなしでターゲットのイメージング モダリティでセグメンテーションを正常に実行できるネットワークをトレーニングすることが可能になります。
この研究では、スライス方向の連続モダリティ横断医療画像セグメンテーションのためのシンプルかつ効果的なボリューム UDA フレームワークである SDC-UDA を提案します。これは、スライス内およびスライス間のセルフアテンダント画像変換、不確実性を制約した疑似ラベルの洗練を組み合わせたものです。
そしてボリューメトリックセルフトレーニング。
私たちの方法は、スライス方向に連続的なセグメンテーションを取得できるため、医療画像セグメンテーションのUDAに関するこれまでの方法とは区別され、それによって臨床現場でのより高い精度と可能性が保証されます。
私たちは、公的に利用可能な複数のクロスモダリティ医用画像セグメンテーション データセットを使用して SDC-UDA を検証し、以前の研究と比較して優れたスライス方向の予測連続性は言うまでもなく、最先端のセグメンテーション パフォーマンスを実現します。
要約(オリジナル)
Recent advances in deep learning-based medical image segmentation studies achieve nearly human-level performance in fully supervised manner. However, acquiring pixel-level expert annotations is extremely expensive and laborious in medical imaging fields. Unsupervised domain adaptation (UDA) can alleviate this problem, which makes it possible to use annotated data in one imaging modality to train a network that can successfully perform segmentation on target imaging modality with no labels. In this work, we propose SDC-UDA, a simple yet effective volumetric UDA framework for slice-direction continuous cross-modality medical image segmentation which combines intra- and inter-slice self-attentive image translation, uncertainty-constrained pseudo-label refinement, and volumetric self-training. Our method is distinguished from previous methods on UDA for medical image segmentation in that it can obtain continuous segmentation in the slice direction, thereby ensuring higher accuracy and potential in clinical practice. We validate SDC-UDA with multiple publicly available cross-modality medical image segmentation datasets and achieve state-of-the-art segmentation performance, not to mention the superior slice-direction continuity of prediction compared to previous studies.
arxiv情報
著者 | Hyungseob Shin,Hyeongyu Kim,Sewon Kim,Yohan Jun,Taejoon Eo,Dosik Hwang |
発行日 | 2023-05-18 14:44:27+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google