Multi-Attention Integrated Deep Learning Frameworks for Enhanced Breast Cancer Segmentation and Identification

要約

乳がんは世界中で生命に深刻な脅威を与えており、毎年多くの命が奪われています。
したがって、早期介入と生存の可能性を高めるには、タイムリーな検出が非常に重要です。
超音波画像を使用して乳房腫瘍を正確に診断および分類することは医学における永続的な課題であり、治療戦略を改善するための最先端のソリューションが求められています。
この研究では、超音波画像から乳がん腫瘍を分類およびセグメンテーションするために設計された多注意強化深層学習 (DL) フレームワークを導入します。
InceptionResNet バックボーンを備えた新しい LinkNet DL フレームワークを利用して、超音波画像から腫瘍をセグメント化するための空間チャネル アテンション メカニズムが提案されています。
これに続いて、この論文では、セグメント化された腫瘍を良性、悪性、または正常に分類するための統合マルチアテンション フレームワーク (DCNNIMAF) を備えたディープ畳み込みニューラル ネットワークを提案しています。
実験結果から、セグメンテーション モデルは 98.1% の精度を記録し、最小損失は 0.6% であることがわかります。
また、Intersection over Union (IoU) と Dice Coefficient スコアもそれぞれ 96.9% と 97.2% という高いスコアを達成しました。
同様に、分類モデルは 99.2% の精度を達成し、損失は 0.31% と低くなっています。
さらに、この分類フレームワークは、それぞれ 99.1%、99.3%、99.1% という優れた F1 スコア、精度、再現率の値を達成しました。
この提案された研究は、乳がんの早期発見と正確な分類のための堅牢なフレームワークを提供することにより、医療画像解析の分野を大幅に進歩させ、診断の精度と患者の転帰を向上させる可能性があります。

要約(オリジナル)

Breast cancer poses a profound threat to lives globally, claiming numerous lives each year. Therefore, timely detection is crucial for early intervention and improved chances of survival. Accurately diagnosing and classifying breast tumors using ultrasound images is a persistent challenge in medicine, demanding cutting-edge solutions for improved treatment strategies. This research introduces multiattention-enhanced deep learning (DL) frameworks designed for the classification and segmentation of breast cancer tumors from ultrasound images. A spatial channel attention mechanism is proposed for segmenting tumors from ultrasound images, utilizing a novel LinkNet DL framework with an InceptionResNet backbone. Following this, the paper proposes a deep convolutional neural network with an integrated multi-attention framework (DCNNIMAF) to classify the segmented tumor as benign, malignant, or normal. From experimental results, it is observed that the segmentation model has recorded an accuracy of 98.1%, with a minimal loss of 0.6%. It has also achieved high Intersection over Union (IoU) and Dice Coefficient scores of 96.9% and 97.2%, respectively. Similarly, the classification model has attained an accuracy of 99.2%, with a low loss of 0.31%. Furthermore, the classification framework has achieved outstanding F1-Score, precision, and recall values of 99.1%, 99.3%, and 99.1%, respectively. By offering a robust framework for early detection and accurate classification of breast cancer, this proposed work significantly advances the field of medical image analysis, potentially improving diagnostic precision and patient outcomes.

arxiv情報

著者 Pandiyaraju V,Shravan Venkatraman,Pavan Kumar S,Santhosh Malarvannan,Kannan A
発行日 2024-07-15 17:55:49+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG, eess.IV, F.2.2 パーマリンク