要約
乳がん分類に対する従来の深層学習アプローチは、主に単一ビュー分析に集中していました。
しかし、臨床現場では、放射線科医はマンモグラフィー検査内のすべてのビューを同時に検査し、これらのビューに固有の相関関係を利用して腫瘍を効果的に検出します。
いくつかの研究では、マルチビュー解析の重要性を認識して、個別の畳み込み分岐または単純な融合戦略を通じてマンモグラム画像を独立して処理する方法が導入されており、これにより重要なビュー間の相関関係が誤って失われることになります。
この論文では、マンモグラフィー画像分類における課題に対処するために、トランスのみに基づいた革新的なマルチビュー ネットワークを提案します。
私たちのアプローチでは、新しいシフト ウィンドウ ベースの動的アテンション ブロックを導入し、マルチビュー情報の効果的な統合を促進し、空間特徴マップ レベルでのビュー間でのこの情報の一貫した転送を促進します。
さらに、CBIS-DDSM および Vin-Dr Mammo データセットを使用して、さまざまな設定の下で変圧器ベースのモデルのパフォーマンスと有効性の包括的な比較分析を実行します。
私たちのコードは https://github.com/prithuls/MV-Swin-T で公開されています。
要約(オリジナル)
Traditional deep learning approaches for breast cancer classification has predominantly concentrated on single-view analysis. In clinical practice, however, radiologists concurrently examine all views within a mammography exam, leveraging the inherent correlations in these views to effectively detect tumors. Acknowledging the significance of multi-view analysis, some studies have introduced methods that independently process mammogram views, either through distinct convolutional branches or simple fusion strategies, inadvertently leading to a loss of crucial inter-view correlations. In this paper, we propose an innovative multi-view network exclusively based on transformers to address challenges in mammographic image classification. Our approach introduces a novel shifted window-based dynamic attention block, facilitating the effective integration of multi-view information and promoting the coherent transfer of this information between views at the spatial feature map level. Furthermore, we conduct a comprehensive comparative analysis of the performance and effectiveness of transformer-based models under diverse settings, employing the CBIS-DDSM and Vin-Dr Mammo datasets. Our code is publicly available at https://github.com/prithuls/MV-Swin-T
arxiv情報
著者 | Sushmita Sarker,Prithul Sarker,George Bebis,Alireza Tavakkoli |
発行日 | 2024-02-26 04:41:04+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google