要約
コンピューター支援診断(CAD)システムの進歩にもかかわらず、乳がんは世界中の女性の間でがん関連の死亡の主要な原因の1つです。
人工知能(AI)の最近のブレークスルーは、マンモグラフィによる乳がん診断のための高度な深い学習(DL)アーキテクチャの開発に大きな約束を示しています。
これに関連して、この論文は、乳がん診断を強化するために、人間中心のワークフロー内でAIの統合に焦点を当てています。
ただし、重要な課題は、特にテスト時間中に、詳細な腫瘍への注釈への依存や見方の欠落に対する感受性など、ほとんど見落とされています。
これらの問題に対処するために、診断の堅牢性と精度を向上させるハイブリッド、マルチスケール、マルチビューのSWINトランスベースのフレームワーク(MSMV-SWIN)を提案します。
提案されているMSMV-Swinフレームワークは、意思決定サポートツールとして機能するように設計されており、放射線科医がマルチビューマンモグラムをより効果的に分析するのに役立ちます。
より具体的には、MSMV-Swinフレームワークは、乳房ローブを分離するためにセグメントのすべてのモデル(SAM)をレバレッジし、バックグラウンドノイズを減らし、包括的な機能抽出を可能にします。
提案されているMSMV-Swinフレームワークのマルチスケールの性質は、腫瘍特異的領域と腫瘍を取り巻く組織の空間特性を説明し、局所的な情報と文脈情報の両方を捕捉します。
コンテキストデータとローカライズされたデータの統合により、MSMV-Swinの出力は、放射線科医がマンモグラムを解釈する方法と一致し、より良い人間との相互作用と信頼を促進することが保証されます。
ハイブリッド融合構造は、欠落ビューに対する堅牢性を確保するように設計されています。これは、単一のマンモグラムビューのみが利用可能な場合に臨床診療で一般的な発生です。
要約(オリジナル)
Despite advancements in Computer-Aided Diagnosis (CAD) systems, breast cancer remains one of the leading causes of cancer-related deaths among women worldwide. Recent breakthroughs in Artificial Intelligence (AI) have shown significant promise in development of advanced Deep Learning (DL) architectures for breast cancer diagnosis through mammography. In this context, the paper focuses on the integration of AI within a Human-Centric workflow to enhance breast cancer diagnostics. Key challenges are, however, largely overlooked such as reliance on detailed tumor annotations and susceptibility to missing views, particularly during test time. To address these issues, we propose a hybrid, multi-scale and multi-view Swin Transformer-based framework (MSMV-Swin) that enhances diagnostic robustness and accuracy. The proposed MSMV-Swin framework is designed to work as a decision-support tool, helping radiologists analyze multi-view mammograms more effectively. More specifically, the MSMV-Swin framework leverages the Segment Anything Model (SAM) to isolate the breast lobe, reducing background noise and enabling comprehensive feature extraction. The multi-scale nature of the proposed MSMV-Swin framework accounts for tumor-specific regions as well as the spatial characteristics of tissues surrounding the tumor, capturing both localized and contextual information. The integration of contextual and localized data ensures that MSMV-Swin’s outputs align with the way radiologists interpret mammograms, fostering better human-AI interaction and trust. A hybrid fusion structure is then designed to ensure robustness against missing views, a common occurrence in clinical practice when only a single mammogram view is available.
arxiv情報
著者 | Farnoush Bayatmakou,Reza Taleei,Milad Amir Toutounchian,Arash Mohammadi |
発行日 | 2025-03-17 15:48:56+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google