要約
スパースビューコンピュータ断層撮影 (SVCT) 再構成は、まばらにサンプリングされた測定値に基づいて高品質の CT 画像を取得することを目的としたイメージングにおける不適切な逆問題です。
最近の研究では、Implicit Neural Representations (INR) を使用して、サイノグラムと CT 画像間の座標ベースのマッピングを構築しています。
ただし、これらの方法では、隣接する投影ビュー間の相関関係が考慮されていないため、SV サイノグラムにエイリアシング アーティファクトが発生します。
この問題に対処するために、我々は、空間的制約を介して隣接する投影ビュー間の連続表現を構築できる、自己教師あり SVCT 再構成手法であるアンチエイリアシング投影表現フィールド (APRF) を提案します。
具体的には、APRF はトレーニングに SV サイノグラムのみを必要とします。これは、まず線分サンプリング モジュールを使用して局所領域内の投影ビューの分布を推定し、次に中心ベースの線積分モジュールを使用して対応するサイノグラム値を合成します。
単一の SV サイノグラム自体で APRF をトレーニングした後、対応するデンス ビュー (DV) サイノグラムを一貫した連続性で合成できます。
予測された DV サイノグラムに再投影技術を適用することで、高品質の CT 画像を取得できます。
CT 画像に関する広範な実験により、APRF が最先端の方法よりも優れた性能を発揮し、より正確な詳細とより少ないアーティファクトが得られることが実証されました。
私たちのコードは間もなく公開される予定です。
要約(オリジナル)
Sparse-view Computed Tomography (SVCT) reconstruction is an ill-posed inverse problem in imaging that aims to acquire high-quality CT images based on sparsely-sampled measurements. Recent works use Implicit Neural Representations (INRs) to build the coordinate-based mapping between sinograms and CT images. However, these methods have not considered the correlation between adjacent projection views, resulting in aliasing artifacts on SV sinograms. To address this issue, we propose a self-supervised SVCT reconstruction method — Anti-Aliasing Projection Representation Field (APRF), which can build the continuous representation between adjacent projection views via the spatial constraints. Specifically, APRF only needs SV sinograms for training, which first employs a line-segment sampling module to estimate the distribution of projection views in a local region, and then synthesizes the corresponding sinogram values using center-based line integral module. After training APRF on a single SV sinogram itself, it can synthesize the corresponding dense-view (DV) sinogram with consistent continuity. High-quality CT images can be obtained by applying re-projection techniques on the predicted DV sinograms. Extensive experiments on CT images demonstrate that APRF outperforms state-of-the-art methods, yielding more accurate details and fewer artifacts. Our code will be publicly available soon.
arxiv情報
著者 | Zixuan Chen,Lingxiao Yang,Jianhuang Lai,Xiaohua Xie |
発行日 | 2023-07-11 14:04:12+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google