要約
拡散モデルは、3D コンピュータ断層撮影 (CT) などの実際の現場で大規模な医療画像再構成に使用される場合、重大な課題に直面します。
メモリ、時間、およびデータ要件が厳しいため、高次元データのボリューム全体に対して直接拡散モデルをトレーニングして、効率的な 3D 拡散事前を取得することは困難です。
手作りのクロススライス正則化を使用して単一の 2D 画像スライス上で拡散プリアを利用する既存の研究では、Z 軸の一貫性が犠牲になり、Z 軸に沿って深刻なアーティファクトが発生します。
この研究では、大規模な 3D 医療画像を再構成するために、位置を意識した 3D パッチ拡散スコア ブレンディングを通じて 3D 画像を事前に学習できる新しいフレームワークを提案します。
私たちの知る限り、当社は 3D 医療画像再構成に 3D パッチ拡散プリアを利用した最初の企業です。
スパースビューおよび限定角度CT再構成に関する広範な実験により、当社のDiffusionBlend手法が以前の手法を大幅に上回り、高次元3D画像による現実世界のCT再構成問題で最先端のパフォーマンスを達成できることが示されました(つまり、256ドル×256\)
500ドルの倍)。
また、当社のアルゴリズムは、以前の最先端の方法よりも優れた、または同等の計算効率を備えています。
要約(オリジナル)
Diffusion models face significant challenges when employed for large-scale medical image reconstruction in real practice such as 3D Computed Tomography (CT). Due to the demanding memory, time, and data requirements, it is difficult to train a diffusion model directly on the entire volume of high-dimensional data to obtain an efficient 3D diffusion prior. Existing works utilizing diffusion priors on single 2D image slice with hand-crafted cross-slice regularization would sacrifice the z-axis consistency, which results in severe artifacts along the z-axis. In this work, we propose a novel framework that enables learning the 3D image prior through position-aware 3D-patch diffusion score blending for reconstructing large-scale 3D medical images. To the best of our knowledge, we are the first to utilize a 3D-patch diffusion prior for 3D medical image reconstruction. Extensive experiments on sparse view and limited angle CT reconstruction show that our DiffusionBlend method significantly outperforms previous methods and achieves state-of-the-art performance on real-world CT reconstruction problems with high-dimensional 3D image (i.e., $256 \times 256 \times 500$). Our algorithm also comes with better or comparable computational efficiency than previous state-of-the-art methods.
arxiv情報
著者 | Bowen Song,Jason Hu,Zhaoxu Luo,Jeffrey A. Fessler,Liyue Shen |
発行日 | 2024-06-14 17:47:50+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google