Multi-Scale Feature Fusion with Image-Driven Spatial Integration for Left Atrium Segmentation from Cardiac MRI Images

要約

後期ガドリニウム強化磁気共鳴画像診断からの左心房(LA)の正確なセグメンテーションは、病気の心房構造を視覚化し、心血管疾患の診断と管理を可能にする上で重要な役割を果たします。
心房細動(AF)の重要な介入であるアブレーション療法による治療を計画するために特に不可欠です。
ただし、手動のセグメンテーションは時間型であり、観察者間の変動を起こしやすく、自動化されたソリューションの必要性を強調しています。
DINOV2のようなクラスに依存しない基礎モデルは、視覚タスクにおける顕著な特徴抽出機能を実証しています。
ただし、ドメインの特異性の欠如とタスク固有の適応は、特徴抽出中の空間分解能を減らし、医療画像における細かい解剖学的詳細のキャプチャに影響を与える可能性があります。
この制限に対処するために、DinoV2をUNETスタイルのデコーダーとエンコーダーとして統合するセグメンテーションフレームワークを提案し、マルチスケールの特徴融合と入力画像統合を組み込んでセグメンテーションの精度を強化します。
学習可能な重み付けメカニズムは、ファンデーションモデルのさまざまなエンコーダーブロックからの階層的特徴を動的に優先し、タスク関連の機能選択を最適化します。
さらに、入力画像はデコード段階で再導入され、高解像度の空間的詳細を維持し、エンコーダーのダウンサンプリングの制限に対処します。
LASCARQS 2022データセットでのアプローチを検証し、NNNUNETベースラインモデルと比較して、92.3%のサイコロと84.1%のIOUスコアでパフォーマンスの改善を示します。
これらの発見は、心臓MRIからの自動化された左心房セグメンテーションの分野を進める際のアプローチの有効性を強調しています。

要約(オリジナル)

Accurate segmentation of the left atrium (LA) from late gadolinium-enhanced magnetic resonance imaging plays a vital role in visualizing diseased atrial structures, enabling the diagnosis and management of cardiovascular diseases. It is particularly essential for planning treatment with ablation therapy, a key intervention for atrial fibrillation (AF). However, manual segmentation is time-intensive and prone to inter-observer variability, underscoring the need for automated solutions. Class-agnostic foundation models like DINOv2 have demonstrated remarkable feature extraction capabilities in vision tasks. However, their lack of domain specificity and task-specific adaptation can reduce spatial resolution during feature extraction, impacting the capture of fine anatomical detail in medical imaging. To address this limitation, we propose a segmentation framework that integrates DINOv2 as an encoder with a UNet-style decoder, incorporating multi-scale feature fusion and input image integration to enhance segmentation accuracy. The learnable weighting mechanism dynamically prioritizes hierarchical features from different encoder blocks of the foundation model, optimizing feature selection for task relevance. Additionally, the input image is reintroduced during the decoding stage to preserve high-resolution spatial details, addressing limitations of downsampling in the encoder. We validate our approach on the LAScarQS 2022 dataset and demonstrate improved performance with a 92.3% Dice and 84.1% IoU score for giant architecture compared to the nnUNet baseline model. These findings emphasize the efficacy of our approach in advancing the field of automated left atrium segmentation from cardiac MRI.

arxiv情報

著者 Bipasha Kundu,Zixin Yang,Richard Simon,Cristian Linte
発行日 2025-02-10 16:12:46+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, eess.IV パーマリンク