MAST-Pro: Dynamic Mixture-of-Experts for Adaptive Segmentation of Pan-Tumors with Knowledge-Driven Prompts

要約

がんの診断と治療には、正確な腫瘍のセグメンテーションが重要です。
基礎モデルには高度な汎用セグメンテーションがありますが、既存の方法は依然として格闘しています。(1)医療用プライアーの限られた組み込み、(2)ジェネリックと腫瘍固有の特徴の不均衡、(3)臨床適応のための高い計算コスト。
これらの課題に対処するために、Mast-Pro(知識駆動型プロンプトを備えた汎腫瘍の適応セグメンテーションのための専門家の混合物)、エクスペルの動的な混合(D-MOE)、および汎腫瘍セグメンテーションの知識駆動型プロンプトを統合する新しいフレームワークを提案します。
具体的には、テキストと解剖学的プロンプトはドメイン固有のプライアーを提供し、腫瘍表現学習を導きますが、D-MoEはエキスパートを動的に選択して、一般的な機能学習と腫瘍固有の特徴学習のバランスをとり、多様な腫瘍タイプ全体のセグメンテーションの精度を改善します。
効率を向上させるために、パラメーター効率の高い微調整(PEFT)を採用し、Mast-Proを最適化して計算オーバーヘッドを大幅に減らします。
多分析腫瘍データセットの実験は、Mast-Proが最先端のアプローチを上回り、平均DSCの最大5.20%の改善を達成し、精度を低下させることなくトレーニング可能なパラメーターを91.04%減らすことを示しています。

要約(オリジナル)

Accurate tumor segmentation is crucial for cancer diagnosis and treatment. While foundation models have advanced general-purpose segmentation, existing methods still struggle with: (1) limited incorporation of medical priors, (2) imbalance between generic and tumor-specific features, and (3) high computational costs for clinical adaptation. To address these challenges, we propose MAST-Pro (Mixture-of-experts for Adaptive Segmentation of pan-Tumors with knowledge-driven Prompts), a novel framework that integrates dynamic Mixture-of-Experts (D-MoE) and knowledge-driven prompts for pan-tumor segmentation. Specifically, text and anatomical prompts provide domain-specific priors, guiding tumor representation learning, while D-MoE dynamically selects experts to balance generic and tumor-specific feature learning, improving segmentation accuracy across diverse tumor types. To enhance efficiency, we employ Parameter-Efficient Fine-Tuning (PEFT), optimizing MAST-Pro with significantly reduced computational overhead. Experiments on multi-anatomical tumor datasets demonstrate that MAST-Pro outperforms state-of-the-art approaches, achieving up to a 5.20% improvement in average DSC while reducing trainable parameters by 91.04%, without compromising accuracy.

arxiv情報

著者 Runqi Meng,Sifan Song,Pengfei Jin,Yujin Oh,Lin Teng,Yulin Wang,Yiqun Sun,Ling Chen,Xiang Li,Quanzheng Li,Ning Guo,Dinggang Shen
発行日 2025-03-18 15:39:44+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク