要約
マルチコントラスト磁気共鳴イメージング(MRI)は、異なるコントラストから補完的な情報を活用することにより、脳腫瘍のセグメンテーションと診断に重要な役割を果たします。
それぞれのコントラストは、特定の腫瘍特性を強調し、腫瘍の形態、浮腫、および病理学的不均一性を包括的に理解することを可能にします。
ただし、既存の方法は、特に注釈が限られている場合、さまざまなコントラストにわたるマルチレベルの特異性の知覚の課題に依然として直面しています。
これらの課題には、データの不均一性、粒度の違い、および冗長な情報からの干渉が含まれます。
これらの制限に対処するために、マルチコントラストMRIセグメンテーションのためのタスク指向の不確実性共同学習(TUCL)フレームワークを提案します。
TUCLは、コントラストとタスク全体で特徴の相互作用を動的にモデル化するために、侵入内およびクロスプロンプトの注意メカニズムを備えたタスク指向の迅速な注意(TPA)モジュールを導入します。
さらに、循環プロセスは、予測をプロンプトにマッピングするように設計されており、プロンプトが効果的に利用されるようにします。
デコード段階では、TUCLフレームワークは、予測を繰り返し改善することにより堅牢なセグメンテーションを保証するデュアルパス不確実性洗練(DUR)戦略を提案します。
限られた標識データの広範な実験結果は、TUCLがセグメンテーションの精度を大幅に改善することを示しています(サイコロで88.2 \%、HD95で10.853 mm)。
TUCLには、マルチコントラスト情報を抽出し、広範な注釈への依存を減らす可能性があることを示しています。
このコードは、https://github.com/zhenxuan-zhang/tucl_brainsegで入手できます。
要約(オリジナル)
Multi-contrast magnetic resonance imaging (MRI) plays a vital role in brain tumor segmentation and diagnosis by leveraging complementary information from different contrasts. Each contrast highlights specific tumor characteristics, enabling a comprehensive understanding of tumor morphology, edema, and pathological heterogeneity. However, existing methods still face the challenges of multi-level specificity perception across different contrasts, especially with limited annotations. These challenges include data heterogeneity, granularity differences, and interference from redundant information. To address these limitations, we propose a Task-oriented Uncertainty Collaborative Learning (TUCL) framework for multi-contrast MRI segmentation. TUCL introduces a task-oriented prompt attention (TPA) module with intra-prompt and cross-prompt attention mechanisms to dynamically model feature interactions across contrasts and tasks. Additionally, a cyclic process is designed to map the predictions back to the prompt to ensure that the prompts are effectively utilized. In the decoding stage, the TUCL framework proposes a dual-path uncertainty refinement (DUR) strategy which ensures robust segmentation by refining predictions iteratively. Extensive experimental results on limited labeled data demonstrate that TUCL significantly improves segmentation accuracy (88.2\% in Dice and 10.853 mm in HD95). It shows that TUCL has the potential to extract multi-contrast information and reduce the reliance on extensive annotations. The code is available at: https://github.com/Zhenxuan-Zhang/TUCL_BrainSeg.
arxiv情報
著者 | Zhenxuan Zhang,Hongjie Wu,Jiahao Huang,Baihong Xie,Zhifan Gao,Junxian Du,Pete Lally,Guang Yang |
発行日 | 2025-03-07 18:44:53+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google