3D Arterial Segmentation via Single 2D Projections and Depth Supervision in Contrast-Enhanced CT Images

要約

3D ボリュームでの血管の自動セグメンテーションは、多くの血管疾患の定量的診断と治療に不可欠なステップです。
3D 血管セグメンテーションは、既存の研究、主に深層学習アプローチで積極的に研究されています。
ただし、3D ディープ ネットワークをトレーニングするには、専門家による大量の手動 3D アノテーションが必要であり、取得するのは大変です。
これは特に 3D 血管セグメンテーションの場合に当てはまります。血管はまばらですが、多くのスライスに広がっており、2D スライスで視覚化すると切断されるためです。
この研究では、深度監視を使用してトレーニング画像ごとに 1 つの注釈付き 2D 投影のみから 3D 膵周囲動脈をセグメント化する新しい方法を提案します。
私たちは、3D 造影 CT 画像上で膵周囲動脈のセグメンテーションに関する広範な実験を実施し、2D 投影からの豊富な深さ情報をどの程度うまく捕捉できるかを実証しています。
各トレーニング サンプルに対してランダムに選択された単一の投影にアノテーションを付けることで、複数の 2D 投影にアノテーションを付けるのと同等のパフォーマンスが得られ、それによってアノテーションの労力が軽減されることを実証します。
さらに、深度情報を使用して 2D ラベルを 3D 空間にマッピングし、これをトレーニングに組み込むことで、3D 監視と 2D 監視の間のパフォーマンスのギャップをほぼ埋めることができます。
私たちのコードは https://github.com/alinafdima/3Dseg-mip- Depth で入手できます。

要約(オリジナル)

Automated segmentation of the blood vessels in 3D volumes is an essential step for the quantitative diagnosis and treatment of many vascular diseases. 3D vessel segmentation is being actively investigated in existing works, mostly in deep learning approaches. However, training 3D deep networks requires large amounts of manual 3D annotations from experts, which are laborious to obtain. This is especially the case for 3D vessel segmentation, as vessels are sparse yet spread out over many slices and disconnected when visualized in 2D slices. In this work, we propose a novel method to segment the 3D peripancreatic arteries solely from one annotated 2D projection per training image with depth supervision. We perform extensive experiments on the segmentation of peripancreatic arteries on 3D contrast-enhanced CT images and demonstrate how well we capture the rich depth information from 2D projections. We demonstrate that by annotating a single, randomly chosen projection for each training sample, we obtain comparable performance to annotating multiple 2D projections, thereby reducing the annotation effort. Furthermore, by mapping the 2D labels to the 3D space using depth information and incorporating this into training, we almost close the performance gap between 3D supervision and 2D supervision. Our code is available at: https://github.com/alinafdima/3Dseg-mip-depth.

arxiv情報

著者 Alina F. Dima,Veronika A. Zimmer,Martin J. Menten,Hongwei Bran Li,Markus Graf,Tristan Lemke,Philipp Raffler,Robert Graf,Jan S. Kirschke,Rickmer Braren,Daniel Rueckert
発行日 2023-09-15 15:41:40+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク