Breast Cancer Detection from Multi-View Screening Mammograms with Visual Prompt Tuning

要約

高解像度マンモグラムからの乳がんの正確な検出は、早期診断と効果的な治療計画に不可欠です。
以前の研究では、乳がんの検出にシングルビューマンモグラムを使用する可能性が示されています。
ただし、マルチビューデータを組み込むと、より包括的な洞察が得られます。
特に医療イメージングにおけるマルチビュー分類は、特に大規模で高解像度のデータを扱う場合、独自の課題を提示します。
この作業では、複数のスクリーニングマンモグラムを分析するための新しいマルチビュービジュアルプロンプトチューニングネットワーク(MVPT-NET)を提案します。
最初に、高解像度のマンモグラムで堅牢なシングルビュー分類モデルを前処理し、次にマルチビュー機能学習をタスク固有のプロンプトチューニングプロセスに革新的に適応させます。
この手法は、事前に訓練されたシングルビューモデルの堅牢性を保持しながら、最小限のトレーニング可能なパラメーター(7 \%)のセットを選択的に調整し、攻撃的なダウンサンプリングを必要とせずにマルチビューデータを効率的に統合できるようにします。
私たちのアプローチは、従来の特徴融合法に代わる効率的な代替品を提供し、高解像度のマンモグラム分析のためのより堅牢でスケーラブルで効率的なソリューションを提供します。
大規模な多施設データセットの実験結果は、私たちの方法が検出効率を維持しながら従来のアプローチを上回り、良性、DCI、および侵入クラスを区別するために0.852のAurocを達成することを示しています。
この作業は、医療イメージングタスクのMVPT-NETの可能性を強調し、乳がんの検出にマルチビューデータを統合するためのスケーラブルなソリューションを提供します。

要約(オリジナル)

Accurate detection of breast cancer from high-resolution mammograms is crucial for early diagnosis and effective treatment planning. Previous studies have shown the potential of using single-view mammograms for breast cancer detection. However, incorporating multi-view data can provide more comprehensive insights. Multi-view classification, especially in medical imaging, presents unique challenges, particularly when dealing with large-scale, high-resolution data. In this work, we propose a novel Multi-view Visual Prompt Tuning Network (MVPT-NET) for analyzing multiple screening mammograms. We first pretrain a robust single-view classification model on high-resolution mammograms and then innovatively adapt multi-view feature learning into a task-specific prompt tuning process. This technique selectively tunes a minimal set of trainable parameters (7\%) while retaining the robustness of the pre-trained single-view model, enabling efficient integration of multi-view data without the need for aggressive downsampling. Our approach offers an efficient alternative to traditional feature fusion methods, providing a more robust, scalable, and efficient solution for high-resolution mammogram analysis. Experimental results on a large multi-institution dataset demonstrate that our method outperforms conventional approaches while maintaining detection efficiency, achieving an AUROC of 0.852 for distinguishing between Benign, DCIS, and Invasive classes. This work highlights the potential of MVPT-NET for medical imaging tasks and provides a scalable solution for integrating multi-view data in breast cancer detection.

arxiv情報

著者 Han Chen,Anne L. Martel
発行日 2025-04-28 15:31:08+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV パーマリンク