Mammographic Breast Positioning Assessment via Deep Learning

要約

乳がんは依然として世界中の女性のがん関連死亡の主な原因であり、早期発見のための最も効果的な方法としてマンモグラフィー検査が行われています。
位置決めが悪いと診断エラー、患者のストレスの増加、リコールによるコストの増加につながる可能性があるため、マンモグラフィーでの適切な位置決めを確保することは非常に重要です。
乳がん診断のためのディープラーニング(DL)の進歩にもかかわらず、マンモグラフィーの位置の評価には限定的な焦点が当てられてきました。
この論文では、特に中外側斜位 (MLO) ビューにおいて、注意および座標畳み込みモジュールを使用して、マンモグラムの位置決め品質を定量的に評価するための新しい DL 方法論を紹介します。
私たちの方法は、乳首や胸筋などの重要な解剖学的ランドマークを特定し、後乳頭線 (PNL) を自動的に描画し、よく知られている分類や回帰ベースのアプローチに代わる堅牢で本質的に説明可能な代替手段を提供します。
提案された方法論のパフォーマンスを、さまざまな回帰および分類ベースのモデルと比較します。
CoordAtt UNet モデルは、88.63% $\pm$ 2.84 の最高の精度と 90.25% $\pm$ 4.04 の特異性を達成し、さらに 86.04% $\pm$ 3.41 という注目すべき感度を達成しました。
ランドマーク検出においても、同じモデルは主要な解剖学的点で最も低い平均誤差と 2.42 度の最小角度誤差を記録しました。
私たちの結果は、注意メカニズムと CoordConv モジュールを組み込んだモデルにより、乳房の位置決め品質の分類と解剖学的ランドマークの検出の精度が向上することを示しています。
さらに、マンモグラフィーに関するオープンな研究領域を開始するために、ラベルとソース コードをコミュニティが利用できるようにしています。https://github.com/tanyelai/deep-breast-positioning からアクセスできます。

要約(オリジナル)

Breast cancer remains a leading cause of cancer-related deaths among women worldwide, with mammography screening as the most effective method for the early detection. Ensuring proper positioning in mammography is critical, as poor positioning can lead to diagnostic errors, increased patient stress, and higher costs due to recalls. Despite advancements in deep learning (DL) for breast cancer diagnostics, limited focus has been given to evaluating mammography positioning. This paper introduces a novel DL methodology to quantitatively assess mammogram positioning quality, specifically in mediolateral oblique (MLO) views using attention and coordinate convolution modules. Our method identifies key anatomical landmarks, such as the nipple and pectoralis muscle, and automatically draws a posterior nipple line (PNL), offering robust and inherently explainable alternative to well-known classification and regression-based approaches. We compare the performance of proposed methodology with various regression and classification-based models. The CoordAtt UNet model achieved the highest accuracy of 88.63% $\pm$ 2.84 and specificity of 90.25% $\pm$ 4.04, along with a noteworthy sensitivity of 86.04% $\pm$ 3.41. In landmark detection, the same model also recorded the lowest mean errors in key anatomical points and the smallest angular error of 2.42 degrees. Our results indicate that models incorporating attention mechanisms and CoordConv module increase the accuracy in classifying breast positioning quality and detecting anatomical landmarks. Furthermore, we make the labels and source codes available to the community to initiate an open research area for mammography, accessible at https://github.com/tanyelai/deep-breast-positioning.

arxiv情報

著者 Toygar Tanyel,Nurper Denizoglu,Mustafa Ege Seker,Deniz Alis,Esma Cerekci,Ercan Karaarslan,Erkin Aribal,Ilkay Oksuz
発行日 2024-07-15 15:14:10+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, eess.IV, J.3 パーマリンク