要約
正確な血管セグメンテーションは、冠動脈視覚化と冠動脈性心疾患の診断に不可欠です。
このタスクには、体積空間からのまばらな木のような血管枝の抽出が含まれます。
ただし、既存の方法は、不連続な血管のセグメンテーションとエンドポイントの欠落により、大きな課題に直面しています。
この問題に対処するために、VIG3D-UNETという名前の3D Vision Graph Neural Network Frameworkが導入されました。
この方法は、U字型アーキテクチャ内の3Dグラフ表現と集約を統合して、継続的な血管セグメンテーションを促進します。
VIG3Dモジュールは体積血管の接続とトポロジーをキャプチャし、畳み込みモジュールは細かい血管の詳細を抽出します。
これらの2つのブランチは、チャネルの注意を組み合わせてエンコーダー機能を形成します。
その後、紙布型のオフセットデコーダーは、スパース機能空間での冗長計算を最小限に抑え、機能マップサイズを元の入力寸法に合わせて復元します。
継続的な血管セグメンテーションのために提案されたアプローチの有効性を評価するために、AsocaとImagecasの2つのパブリックデータセットで評価が実行されました。
セグメンテーションの結果は、VIG3D-UNETが、高いセグメンテーションの精度を達成しながら、血管セグメンテーションの接続性を維持する際の競合方法を上回ったことを示しています。
私たちのコードはまもなく利用可能になります。
要約(オリジナル)
Accurate vascular segmentation is essential for coronary visualization and the diagnosis of coronary heart disease. This task involves the extraction of sparse tree-like vascular branches from the volumetric space. However, existing methods have faced significant challenges due to discontinuous vascular segmentation and missing endpoints. To address this issue, a 3D vision graph neural network framework, named ViG3D-UNet, was introduced. This method integrates 3D graph representation and aggregation within a U-shaped architecture to facilitate continuous vascular segmentation. The ViG3D module captures volumetric vascular connectivity and topology, while the convolutional module extracts fine vascular details. These two branches are combined through channel attention to form the encoder feature. Subsequently, a paperclip-shaped offset decoder minimizes redundant computations in the sparse feature space and restores the feature map size to match the original input dimensions. To evaluate the effectiveness of the proposed approach for continuous vascular segmentation, evaluations were performed on two public datasets, ASOCA and ImageCAS. The segmentation results show that the ViG3D-UNet surpassed competing methods in maintaining vascular segmentation connectivity while achieving high segmentation accuracy. Our code will be available soon.
arxiv情報
著者 | Bowen Liu,Chunlei Meng,Wei Lin,Hongda Zhang,Ziqing Zhou,Zhongxue Gan,Chun Ouyang |
発行日 | 2025-04-18 10:06:45+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google