GBT-SAM: Adapting a Foundational Deep Learning Model for Generalizable Brain Tumor Segmentation via Efficient Integration of Multi-Parametric MRI Data

要約

神経膠腫は、正確なイメージングベースの診断を必要とする攻撃的な脳腫瘍であり、セグメンテーションは形態と治療の決定を評価する上で重要な役割を果たします。
膠腫の手動描写は時間がかかり、変動する傾向があり、一貫性を改善し、臨床ワークロードを緩和するために深い学習の使用を動機付けます。
ただし、既存の方法は、マルチパラメトリックMRI(MP-MRI)、特にスライス間のコンテキスト機能で利用可能な情報を完全に活用できないことが多く、通常、腫瘍タイプの変動全体で堅牢性を欠いている一方で、かなりの計算リソースを必要とします。
大規模なビジョンモデルであるAnyment Anything Model(SAM)を体積MP-MRIデータに適応させるパラメーター効率の高いディープ学習フレームワークであるGBT-SAMを提示します。
GBT-SAMは、4つのMRIモダリティすべてを組み込んでいる間、スキャンごとに2.6 \%未満のスライスを選択することにより、入力の複雑さを減らし、最小コストで必須の腫瘍関連情報を保存します。
さらに、私たちのモデルは、深度認識モジュールを組み込んだ2段階の微調整戦略によってトレーニングされており、SAMベースのアプローチの中で最も低い6.5mのトレーニング可能なパラメーターをもたらすわずか6.5mのトレーニング可能なパラメーターをもたらします。
GBT-SAMは、Brats成体神経膠腫データセットで93.54のDICEスコアを達成し、髄膜腫、小児神経膠腫、およびサハラ亜サハラ類神経膠腫データセットで堅牢なパフォーマンスを示します。
これらの結果は、MP-MRIを使用した脳腫瘍のセグメンテーションのための計算効率的でドメインロビーフレームワークとしてのGBT-SAMの可能性を強調しています。
私たちのコードとモデルは、https://github.com/vpulab/med-sam-brainで入手できます。

要約(オリジナル)

Gliomas are aggressive brain tumors that require accurate imaging-based diagnosis, with segmentation playing a critical role in evaluating morphology and treatment decisions. Manual delineation of gliomas is time-consuming and prone to variability, motivating the use of deep learning to improve consistency and alleviate clinical workload. However, existing methods often fail to fully exploit the information available in multi-parametric MRI (mp-MRI), particularly inter-slice contextual features, and typically require considerable computational resources while lacking robustness across tumor type variations. We present GBT-SAM, a parameter-efficient deep learning framework that adapts the Segment Anything Model (SAM), a large-scale vision model, to volumetric mp-MRI data. GBT-SAM reduces input complexity by selecting fewer than 2.6\% of slices per scan while incorporating all four MRI modalities, preserving essential tumor-related information with minimal cost. Furthermore, our model is trained by a two-step fine-tuning strategy that incorporates a depth-aware module to capture inter-slice correlations and lightweight adaptation layers, resulting in just 6.5M trainable parameters, which is the lowest among SAM-based approaches. GBT-SAM achieves a Dice Score of 93.54 on the BraTS Adult Glioma dataset and demonstrates robust performance on Meningioma, Pediatric Glioma, and Sub-Saharan Glioma datasets. These results highlight GBT-SAM’s potential as a computationally efficient and domain-robust framework for brain tumor segmentation using mp-MRI. Our code and models are available at https://github.com/vpulab/med-sam-brain .

arxiv情報

著者 Cecilia Diana-Albelda,Roberto Alcover-Couso,Álvaro García-Martín,Jesus Bescos,Marcos Escudero-Viñolo
発行日 2025-05-13 13:15:21+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, eess.IV パーマリンク