Parotid Gland MRI Segmentation Based on Swin-Unet and Multimodal Images

要約

背景と目的:耳下腺腫瘍は頭頸部腫瘍の約2~10%を占めます。
術前の腫瘍の局在化、鑑別診断、およびその後の耳下腺腫瘍の適切な治療法の選択は重要です。
しかし、これらの腫瘍は比較的まれであり、組織型が高度に分散しているため、術前のラジオミクスに基づくこのような腫瘍性病変の微妙な鑑別診断に対する満たされていないニーズが残されています。
最近、ディープ ラーニング手法が急速に発展しており、特に Transformer は、コンピューター ビジョンにおいて従来の畳み込みニューラル ネットワークを凌駕しています。
コンピューター ビジョン タスク用に、多くの新しい Transformer ベースのネットワークが提案されています。
方法: この研究では、多施設マルチモーダル耳下腺 MR 画像が収集されました。
Transformer をベースにした Swin-Unet を使用しました。
短時間反転回復、T1 加重および T2 加重モダリティの MR 画像は、ネットワークをトレーニングするために 3 チャネル データに結合されました。
耳下腺と腫瘍の関心領域のセグメンテーションを達成しました。
結果: テスト セットでのモデルのダイス類似度係数は 88.63%、平均ピクセル精度は 99.31%、平均交差オーバー ユニオンは 83.99%、ハウスドルフ距離は 3.04 でした。
次に、アルゴリズムのセグメンテーション性能をさらに検証するために、一連の比較実験がこの論文で設計されました。
結論: 実験結果は、私たちの方法が耳下腺と腫瘍のセグメンテーションに良い結果をもたらすことを示しました。
Transformer ベースのネットワークは、医用画像の分野で従来の畳み込みニューラル ネットワークよりも優れています。

要約(オリジナル)

Background and objective: Parotid gland tumors account for approximately 2% to 10% of head and neck tumors. Preoperative tumor localization, differential diagnosis, and subsequent selection of appropriate treatment for parotid gland tumors are critical. However, the relative rarity of these tumors and the highly dispersed tissue types have left an unmet need for a subtle differential diagnosis of such neoplastic lesions based on preoperative radiomics. Recently, deep learning methods have developed rapidly, especially Transformer beats the traditional convolutional neural network in computer vision. Many new Transformer-based networks have been proposed for computer vision tasks. Methods: In this study, multicenter multimodal parotid gland MR images were collected. The Swin-Unet which was based on Transformer was used. MR images of short time inversion recovery, T1-weighted and T2-weighted modalities were combined into three-channel data to train the network. We achieved segmentation of the region of interest for parotid gland and tumor. Results: The Dice-Similarity Coefficient of the model on the test set was 88.63%, Mean Pixel Accuracy was 99.31%, Mean Intersection over Union was 83.99%, and Hausdorff Distance was 3.04. Then a series of comparison experiments were designed in this paper to further validate the segmentation performance of the algorithm. Conclusions: Experimental results showed that our method has good results for parotid gland and tumor segmentation. The Transformer-based network outperforms the traditional convolutional neural network in the field of medical images.

arxiv情報

著者 Zi’an Xu,Yin Dai,Fayu Liu,Siqi Li,Sheng Liu,Lifu Shi,Jun Fu
発行日 2022-12-26 13:56:21+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG, eess.IV パーマリンク