Multi-View Attention Learning for Residual Disease Prediction of Ovarian Cancer

要約

卵巣がんの治療においては、残存病変を正確に予測することが臨床および外科的意思決定に重要です。
しかし、従来の方法は侵襲的(腹腔鏡検査など)であるか、時間がかかる(手動分析など)かのいずれかです。
最近では、ディープラーニング手法により医療画像の自動解析が盛んに行われています。
目覚ましい進歩にもかかわらず、そのほとんどは疾患の 3D 画像情報の重要性を過小評価しており、特に小規模なデータセットでは残存疾患予測のパフォーマンスが制限される可能性があります。
この目的のために、本論文では、多視点方式での3Dコンピュータ断層撮影(CT)画像の包括的な学習に焦点を当てた、残存疾患予測のための新しい多視点注意学習(MuVAL)手法を提案する。
具体的には、まず横断面、冠状面、矢状面の多視点3D CT画像を取得します。
マルチビューの方法で画像の特徴をより適切に表現するために、アテンション メカニズムをさらに活用して、各ビューでより関連性の高いスライスを見つけやすくします。
111 人の患者のデータセットに対する広範な実験により、私たちの方法が既存の深層学習方法よりも優れていることが示されました。

要約(オリジナル)

In the treatment of ovarian cancer, precise residual disease prediction is significant for clinical and surgical decision-making. However, traditional methods are either invasive (e.g., laparoscopy) or time-consuming (e.g., manual analysis). Recently, deep learning methods make many efforts in automatic analysis of medical images. Despite the remarkable progress, most of them underestimated the importance of 3D image information of disease, which might brings a limited performance for residual disease prediction, especially in small-scale datasets. To this end, in this paper, we propose a novel Multi-View Attention Learning (MuVAL) method for residual disease prediction, which focuses on the comprehensive learning of 3D Computed Tomography (CT) images in a multi-view manner. Specifically, we first obtain multi-view of 3D CT images from transverse, coronal and sagittal views. To better represent the image features in a multi-view manner, we further leverage attention mechanism to help find the more relevant slices in each view. Extensive experiments on a dataset of 111 patients show that our method outperforms existing deep-learning methods.

arxiv情報

著者 Xiangneng Gao,Shulan Ruan,Jun Shi,Guoqing Hu,Wei Wei
発行日 2023-06-26 12:31:08+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, eess.IV パーマリンク