Geometry-Aware Attenuation Learning for Sparse-View CBCT Reconstruction

要約

コーンビームコンピュータ断層撮影 (CBCT) は、臨床画像処理において重要な役割を果たします。
従来の方法では通常、高品質の 3D CBCT 画像を再構成するために数百回の 2D X 線投影が必要であり、かなりの放射線被ばくにつながります。
このため、放射線量を低減するためのスパースビュー CBCT 再構成への関心が高まっています。
ディープ ラーニングやニューラル レンダリング アルゴリズムなどの最近の進歩により、この分野では進歩が見られますが、これらの方法では満足のいく結果が得られないか、個別の最適化の時間効率の悪さが問題になります。
この論文では、この問題を解決するための新しいジオメトリ対応エンコーダ/デコーダ フレームワークを紹介します。
私たちのフレームワークは、2D CNN エンコーダーを使用して、さまざまな 2D X 線投影からのマルチビュー 2D フィーチャをエンコードすることから始まります。
CBCT スキャンのジオメトリを利用して、マルチビュー 2D 特徴を 3D 空間に逆投影して包括的な体積特徴マップを定式化し、続いて 3D CNN デコーダで 3D CBCT 画像を復元します。
重要なのは、私たちのアプローチは、特徴逆投影段階で 3D CBCT 画像とその 2D X 線投影の間の幾何学的関係を尊重しており、データ集団から学習した事前知識を活用していることです。
これにより、X 線投影が 5 つまたは 10 つしかないシナリオなど、個別のトレーニングなしで非常にまばらなビュー入力を処理する際の適応性が確保されます。
2 つのシミュレートされたデータセットと 1 つの現実世界のデータセットに対する広範な評価により、私たちの手法の優れた再構成品質と時間効率が実証されました。

要約(オリジナル)

Cone Beam Computed Tomography (CBCT) plays a vital role in clinical imaging. Traditional methods typically require hundreds of 2D X-ray projections to reconstruct a high-quality 3D CBCT image, leading to considerable radiation exposure. This has led to a growing interest in sparse-view CBCT reconstruction to reduce radiation doses. While recent advances, including deep learning and neural rendering algorithms, have made strides in this area, these methods either produce unsatisfactory results or suffer from time inefficiency of individual optimization. In this paper, we introduce a novel geometry-aware encoder-decoder framework to solve this problem. Our framework starts by encoding multi-view 2D features from various 2D X-ray projections with a 2D CNN encoder. Leveraging the geometry of CBCT scanning, it then back-projects the multi-view 2D features into the 3D space to formulate a comprehensive volumetric feature map, followed by a 3D CNN decoder to recover 3D CBCT image. Importantly, our approach respects the geometric relationship between 3D CBCT image and its 2D X-ray projections during feature back projection stage, and enjoys the prior knowledge learned from the data population. This ensures its adaptability in dealing with extremly sparse view inputs without individual training, such as scenarios with only 5 or 10 X-ray projections. Extensive evaluations on two simulated datasets and one real-world dataset demonstrate exceptional reconstruction quality and time efficiency of our method.

arxiv情報

著者 Zhentao Liu,Yu Fang,Changjian Li,Han Wu,Yuan Liu,Dinggang Shen,Zhiming Cui
発行日 2024-10-02 14:43:17+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, eess.IV パーマリンク