要約
耳下腺腫瘍は、頭頸部腫瘍の約2%~10%を占める。耳下腺腫瘍に対する術前の腫瘍の位置確認、鑑別診断、およびその後の適切な治療法の選択は極めて重要である。しかし、これらの腫瘍の相対的な希少性と高度に分散した組織型により、術前ラジオミクスに基づくこのような腫瘍性病変の微妙な鑑別診断へのニーズが満たされていない。近年、ディープラーニングの手法が急速に発展しており、特にTransformerはコンピュータビジョンにおける伝統的な畳み込みニューラルネットワークを凌駕しています。また、Transformerを用いた新しいネットワークがコンピュータビジョンのタスクのために数多く提案されている。本研究では、多施設共同によるマルチモーダル耳下腺MRI画像を収集した。TransformerをベースとしたSwin-Unetが用いられた。STIR、T1、T2モダリティのMRI画像を3チャンネルのデータとして結合し、ネットワークを学習させた。耳下腺と腫瘍の関心領域のセグメンテーションを実現した.テストセットにおけるモデルのDSCは88.63%、MPAは99.31%、MIoUは83.99%、HDは3.04%であった。次に、本アルゴリズムのセグメンテーション性能をさらに検証するために、本論文では一連の比較実験を計画した。
要約(オリジナル)
Parotid gland tumors account for approximately 2% to 10% of head and neck tumors. Preoperative tumor localization, differential diagnosis, and subsequent selection of appropriate treatment for parotid gland tumors is critical. However, the relative rarity of these tumors and the highly dispersed tissue types have left an unmet need for a subtle differential diagnosis of such neoplastic lesions based on preoperative radiomics. Recently, deep learning methods have developed rapidly, especially Transformer beats the traditional convolutional neural network in computer vision. Many new Transformer-based networks have been proposed for computer vision tasks. In this study, multicenter multimodal parotid gland MRI images were collected. The Swin-Unet which was based on Transformer was used. MRI images of STIR, T1 and T2 modalities were combined into a three-channel data to train the network. We achieved segmentation of the region of interest for parotid gland and tumor. The DSC of the model on the test set was 88.63%, MPA was 99.31%, MIoU was 83.99%, and HD was 3.04. Then a series of comparison experiments were designed in this paper to further validate the segmentation performance of the algorithm.
arxiv情報
著者 | Yin Dai,Zi’an Xu,Fayu Liu,Siqi Li,Sheng Liu,Lifu Shi,Jun Fu |
発行日 | 2022-06-07 14:20:53+00:00 |
arxivサイト | arxiv_id(pdf) |