要約
マンモグラフィー画像上の悪性病変の検出は、乳がんの早期診断にとって非常に重要です。
臨床現場では、2 つの異なる角度から画像が取得されるため、放射線科医は両方のビューからの情報を最大限に活用して、同じ病変の位置を同時に特定できます。
ただし、自動検出アプローチの場合、そのような情報の融合は依然として課題です。
この論文では、既存の研究で見られたようなオブジェクトレベルだけでなく特徴レベルでも情報を共有することにより、両方のマンモグラフィビューの同時処理を可能にする、MAMM-Netと呼ばれる新しいモデルを提案します。
MAMM-Net の主要コンポーネントは Fusion Layer です。これは変形可能な注意に基づいており、高い再現率を維持しながら検出精度を高めるように設計されています。
私たちの実験では、パブリック DDSM データセット上で以前の最先端モデルと比較して優れたパフォーマンスを示すとともに、ピクセルレベルでの病変の注釈や病変の悪性分類などの新しい便利な機能を導入しています。
要約(オリジナル)
Detection of malignant lesions on mammography images is extremely important for early breast cancer diagnosis. In clinical practice, images are acquired from two different angles, and radiologists can fully utilize information from both views, simultaneously locating the same lesion. However, for automatic detection approaches such information fusion remains a challenge. In this paper, we propose a new model called MAMM-Net, which allows the processing of both mammography views simultaneously by sharing information not only on an object level, as seen in existing works, but also on a feature level. MAMM-Net’s key component is the Fusion Layer, based on deformable attention and designed to increase detection precision while keeping high recall. Our experiments show superior performance on the public DDSM dataset compared to the previous state-of-the-art model, while introducing new helpful features such as lesion annotation on pixel-level and classification of lesions malignancy.
arxiv情報
著者 | Arina Varlamova,Valery Belotsky,Grigory Novikov,Anton Konushin,Evgeny Sidorov |
発行日 | 2024-04-25 16:30:30+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google