要約
マイクロ超音波 (micro-US) は、従来の超音波よりも 3 ~ 4 倍高い解像度を提供する新しい 29 MHz 超音波技術で、前立腺がんの診断において MRI と同等の精度を低コストで実現します。
前立腺の正確なセグメンテーションは、前立腺の体積測定、癌の診断、前立腺生検、および治療計画にとって非常に重要です。
この論文では、micro-US 画像上で自動化され、高速かつ正確に前立腺セグメンテーションを行うための深層学習アプローチを提案します。
micro-US での前立腺のセグメンテーションは、アーチファクトや正中線の前立腺、膀胱、尿道の間の境界が不明瞭であるため、困難です。
この課題に対処するために、マルチスケール アノテーション ガイド付き Transformer UNet モデルである MicroSegNet を導入します。
トレーニング プロセス中、MicroSegNet は、専門家と非専門家の注釈に矛盾が見られる、セグメント化が難しい領域 (困難な領域) にさらに焦点を当てます。
これは、ハード領域のピクセルに大きな重みを割り当て、イージー領域のピクセルに低い重みを割り当てる、アノテーションに基づくクロス エントロピー損失を提案することでこれを実現します。
55 人の患者からのマイクロ US 画像を使用してモデルをトレーニングし、続いて 20 人の患者で評価しました。
当社の MicroSegNet モデルは、Dice 係数 0.942、ハウスドルフ距離 2.11 mm を達成し、いくつかの最先端のセグメンテーション手法や、経験レベルの異なる 3 人のヒューマン アノテーターを上回りました。
研究における透明性と共同作業を促進するために、コードとデータセットを公開します。
要約(オリジナル)
Micro-ultrasound (micro-US) is a novel 29-MHz ultrasound technique that provides 3-4 times higher resolution than traditional ultrasound, delivering comparable accuracy for diagnosing prostate cancer to MRI but at a lower cost. Accurate prostate segmentation is crucial for prostate volume measurement, cancer diagnosis, prostate biopsy, and treatment planning. This paper proposes a deep learning approach for automated, fast, and accurate prostate segmentation on micro-US images. Prostate segmentation on micro-US is challenging due to artifacts and indistinct borders between the prostate, bladder, and urethra in the midline. We introduce MicroSegNet, a multi-scale annotation-guided Transformer UNet model to address this challenge. During the training process, MicroSegNet focuses more on regions that are hard to segment (challenging regions), where expert and non-expert annotations show discrepancies. We achieve this by proposing an annotation-guided cross entropy loss that assigns larger weight to pixels in hard regions and lower weight to pixels in easy regions. We trained our model using micro-US images from 55 patients, followed by evaluation on 20 patients. Our MicroSegNet model achieved a Dice coefficient of 0.942 and a Hausdorff distance of 2.11 mm, outperforming several state-of-the-art segmentation methods, as well as three human annotators with different experience levels. We will make our code and dataset publicly available to promote transparency and collaboration in research.
arxiv情報
| 著者 | Hongxu Jiang,Muhammad Imran,Preethika Muralidharan,Anjali Patel,Jake Pensa,Muxuan Liang,Tarik Benidir,Joseph R. Grajo,Jason P. Joseph,Russell Terry,John Michael DiBianco,Li-Ming Su,Yuyin Zhou,Wayne G. Brisbane,Wei Shao |
| 発行日 | 2023-05-31 15:42:29+00:00 |
| arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google