3D Vessel Reconstruction from Sparse-View Dynamic DSA Images via Vessel Probability Guided Attenuation Learning

要約

デジタルサブトラクション血管造影法 (DSA) は、血管疾患診断におけるゴールドスタンダードの 1 つです。
造影剤の助けを借りて、時間分解 2D DSA 画像は血流情報に対する包括的な洞察を提供し、3D 血管構造の再構築に利用できます。
現在の商用 DSA システムは通常、再構成を実行するために何百ものスキャン ビューを必要とするため、かなりの放射線被ばくが生じます。
しかし、放射線量を減らすことを目的としたスパースビュー DSA 再構成は、研究コミュニティではまだ研究されていません。
動的な血流とスパースビュー DSA 画像の不十分な入力は、3D 血管再構成タスクに大きな課題をもたらします。
この研究では、この問題を効果的に解決するために、時間に依存しない船舶確率フィールドを使用することを提案します。
血管確率誘導減衰学習と呼ばれる私たちのアプローチは、血管確率フィールドから導出された重みを使用して、静的減衰フィールドと動的減衰フィールドの相補的な重み付けされた組み合わせとして DSA イメージングを表します。
動的マスクとして機能する血管確率は、さまざまなシーン タイプに適応する静的フィールドと動的フィールドの両方に適切な勾配を提供します。
このメカニズムにより、静的な背景と動的な造影剤の流れの間の自己監視型分解が促進され、再構成の品質が大幅に向上します。
私たちのモデルは、合成された投影と実際にキャプチャされた DSA 画像間の差異を最小限に抑えることによってトレーニングされています。
さらに、再構成の品質を向上させるために 2 つのトレーニング戦略を採用します。(1) より良いジオメトリを達成するための粗いから細かいへの漸進的トレーニングと、(2) 時間的一貫性を強制するための時間的摂動レンダリング損失です。
実験結果では、3D 血管再構成と 2D ビュー合成の両方で優れた品質が実証されました。

要約(オリジナル)

Digital Subtraction Angiography (DSA) is one of the gold standards in vascular disease diagnosing. With the help of contrast agent, time-resolved 2D DSA images deliver comprehensive insights into blood flow information and can be utilized to reconstruct 3D vessel structures. Current commercial DSA systems typically demand hundreds of scanning views to perform reconstruction, resulting in substantial radiation exposure. However, sparse-view DSA reconstruction, aimed at reducing radiation dosage, is still underexplored in the research community. The dynamic blood flow and insufficient input of sparse-view DSA images present significant challenges to the 3D vessel reconstruction task. In this study, we propose to use a time-agnostic vessel probability field to solve this problem effectively. Our approach, termed as vessel probability guided attenuation learning, represents the DSA imaging as a complementary weighted combination of static and dynamic attenuation fields, with the weights derived from the vessel probability field. Functioning as a dynamic mask, vessel probability provides proper gradients for both static and dynamic fields adaptive to different scene types. This mechanism facilitates a self-supervised decomposition between static backgrounds and dynamic contrast agent flow, and significantly improves the reconstruction quality. Our model is trained by minimizing the disparity between synthesized projections and real captured DSA images. We further employ two training strategies to improve our reconstruction quality: (1) coarse-to-fine progressive training to achieve better geometry and (2) temporal perturbed rendering loss to enforce temporal consistency. Experimental results have demonstrated superior quality on both 3D vessel reconstruction and 2D view synthesis.

arxiv情報

著者 Zhentao Liu,Huangxuan Zhao,Wenhui Qin,Zhenghong Zhou,Xinggang Wang,Wenping Wang,Xiaochun Lai,Chuansheng Zheng,Dinggang Shen,Zhiming Cui
発行日 2024-05-17 11:23:33+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, eess.IV パーマリンク