要約
放射線科医はそれぞれ異なるトレーニングや臨床経験を持っているため、肺結節に対して様々なセグメンテーションのアノテーションを提供する可能性がある。従来の研究では、デフォルトで単一のアノテーションを学習対象としているが、複数のアノテーションに内在する合意や不一致という貴重な情報を無駄にしている。本論文では、セグメンテーションの不確実性を引き起こす可能性のある領域から豊富な視覚的特徴を学習し、より良いセグメンテーション結果に貢献するUncertainty-Guided Segmentation Network (UGS-Net)を提案する。このネットワークは、不確実性認識モジュールにより、異なるセグメンテーションの不確実性レベルを持つ領域を指し示す多信頼マスク(MCM)を提供することが可能である。さらに、本論文では、結節境界と密度差の学習を強化するために、Feature-Aware Attention Moduleを導入している。実験の結果、我々の手法は異なる不確実性レベルの結節領域を予測することができ、LIDC-IDRIデータセットにおいて優れた性能を達成することが示された。
要約(オリジナル)
Since radiologists have different training and clinical experiences, they may provide various segmentation annotations for a lung nodule. Conventional studies choose a single annotation as the learning target by default, but they waste valuable information of consensus or disagreements ingrained in the multiple annotations. This paper proposes an Uncertainty-Guided Segmentation Network (UGS-Net), which learns the rich visual features from the regions that may cause segmentation uncertainty and contributes to a better segmentation result. With an Uncertainty-Aware Module, this network can provide a Multi-Confidence Mask (MCM), pointing out regions with different segmentation uncertainty levels. Moreover, this paper introduces a Feature-Aware Attention Module to enhance the learning of the nodule boundary and density differences. Experimental results show that our method can predict the nodule regions with different uncertainty levels and achieve superior performance in LIDC-IDRI dataset.
arxiv情報
著者 | Han Yang,Lu Shen,Mengke Zhang,Qiuli Wang |
発行日 | 2022-06-07 08:49:29+00:00 |
arxivサイト | arxiv_id(pdf) |