要約
医療画像のセグメンテーションは、臨床診断と治療計画、特に船舶のような複雑な解剖学的構造のために重要です。
この作業では、大動脈容器セグメンテーション向けに特別に設計されたセグメンテーションAnything Model(SAM)の修正バージョンであるVesselsamを提案します。
Vesselsamには、耳障りな注意と低ランク適応(LORA)を組み合わせた新しいモジュールであるAtrousloraが組み込まれており、セグメンテーションパフォーマンスを改善します。
Artousの注意により、モデルはマルチスケールのコンテキスト情報をキャプチャし、細かい地元の詳細とより広範なグローバルコンテキストの両方を維持できます。
同時に、Loraは、Frozen SAMイメージエンコーダーの効率的な微調整を促進し、トレーニング可能なパラメーターの数を減らし、計算効率を確保します。
大動脈容器ツリー(AVT)データセットとタイプb-b-b-bertの大動脈解剖(TBAD)データセットの2つの挑戦的なデータセットでVesselsamを評価します。
Vesselsamは、複数の医療センターで93.50 \%、93.25 \%、93.02 \%、および93.26 \%のDSCスコアで最先端のパフォーマンスを達成しています。
我々の結果は、Vesselsamが高いセグメンテーションの精度を提供し、既存の大規模モデルと比較して計算オーバーヘッドを大幅に削減することを示しています。
この開発は、臨床環境でのAIベースの大動脈血管セグメンテーションの強化への道を開きます。
コードとモデルはhttps://github.com/adnan-cas/atrousloraでリリースされます。
要約(オリジナル)
Medical image segmentation is crucial for clinical diagnosis and treatment planning, particularly for complex anatomical structures like vessels. In this work, we propose VesselSAM, a modified version of the Segmentation Anything Model (SAM), specifically designed for aortic vessel segmentation. VesselSAM incorporates AtrousLoRA, a novel module that combines Atrous Attention with Low-Rank Adaptation (LoRA), to improve segmentation performance. Atrous Attention enables the model to capture multi-scale contextual information, preserving both fine local details and broader global context. At the same time, LoRA facilitates efficient fine-tuning of the frozen SAM image encoder, reducing the number of trainable parameters and ensuring computational efficiency. We evaluate VesselSAM on two challenging datasets: the Aortic Vessel Tree (AVT) dataset and the Type-B Aortic Dissection (TBAD) dataset. VesselSAM achieves state-of-the-art performance with DSC scores of 93.50\%, 93.25\%, 93.02\%, and 93.26\% across multiple medical centers. Our results demonstrate that VesselSAM delivers high segmentation accuracy while significantly reducing computational overhead compared to existing large-scale models. This development paves the way for enhanced AI-based aortic vessel segmentation in clinical environments. The code and models will be released at https://github.com/Adnan-CAS/AtrousLora.
arxiv情報
著者 | Adnan Iltaf,Rayan Merghani Ahmed,Bin Li,Shoujun Zhou |
発行日 | 2025-02-25 13:26:06+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google