MicroSegNet: A Deep Learning Approach for Prostate Segmentation on Micro-Ultrasound Images

要約

マイクロ超音波 (micro-US) は、従来の超音波よりも 3 ~ 4 倍高い解像度を提供する新しい 29 MHz 超音波技術で、前立腺がんの診断において MRI と同等の精度を低コストで実現します。
前立腺の正確なセグメンテーションは、前立腺の体積測定、癌の診断、前立腺生検、および治療計画にとって非常に重要です。
この論文では、micro-US 画像上で自動化され、高速かつ正確に前立腺セグメンテーションを行うための深層学習アプローチを提案します。
micro-US での前立腺のセグメンテーションは、アーチファクトや正中線の前立腺、膀胱、尿道の間の境界が不明瞭であるため、困難です。
この課題に対処するために、マルチスケール アノテーション ガイド付き Transformer UNet モデルである MicroSegNet を導入します。
トレーニング プロセス中、MicroSegNet は、専門家と非専門家の注釈に矛盾が見られる、セグメント化が難しい領域 (困難な領域) にさらに焦点を当てます。
これは、ハード領域のピクセルに大きな重みを割り当て、イージー領域のピクセルに低い重みを割り当てる、アノテーションに基づくクロス エントロピー損失を提案することでこれを実現します。
55 人の患者からのマイクロ US 画像を使用してモデルをトレーニングし、続いて 20 人の患者で評価しました。
当社の MicroSegNet モデルは、Dice 係数 0.942、ハウスドルフ距離 2.11 mm を達成し、いくつかの最先端のセグメンテーション手法や、経験レベルの異なる 3 人のヒューマン アノテーターを上回りました。
研究における透明性と共同作業を促進するために、コードとデータセットを公開します。

要約(オリジナル)

Micro-ultrasound (micro-US) is a novel 29-MHz ultrasound technique that provides 3-4 times higher resolution than traditional ultrasound, delivering comparable accuracy for diagnosing prostate cancer to MRI but at a lower cost. Accurate prostate segmentation is crucial for prostate volume measurement, cancer diagnosis, prostate biopsy, and treatment planning. This paper proposes a deep learning approach for automated, fast, and accurate prostate segmentation on micro-US images. Prostate segmentation on micro-US is challenging due to artifacts and indistinct borders between the prostate, bladder, and urethra in the midline. We introduce MicroSegNet, a multi-scale annotation-guided Transformer UNet model to address this challenge. During the training process, MicroSegNet focuses more on regions that are hard to segment (challenging regions), where expert and non-expert annotations show discrepancies. We achieve this by proposing an annotation-guided cross entropy loss that assigns larger weight to pixels in hard regions and lower weight to pixels in easy regions. We trained our model using micro-US images from 55 patients, followed by evaluation on 20 patients. Our MicroSegNet model achieved a Dice coefficient of 0.942 and a Hausdorff distance of 2.11 mm, outperforming several state-of-the-art segmentation methods, as well as three human annotators with different experience levels. We will make our code and dataset publicly available to promote transparency and collaboration in research.

arxiv情報

著者 Hongxu Jiang,Muhammad Imran,Preethika Muralidharan,Anjali Patel,Jake Pensa,Muxuan Liang,Tarik Benidir,Joseph R. Grajo,Jason P. Joseph,Russell Terry,John Michael DiBianco,Li-Ming Su,Yuyin Zhou,Wayne G. Brisbane,Wei Shao
発行日 2023-05-31 15:42:29+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG, eess.IV パーマリンク