要約
多くのコンピュータ断層撮影(CT)イメージングアプリケーションでは、時間とともに移動または変化するオブジェクトからデータを迅速に収集することが重要です。
断層撮影の取得は、一般に、オブジェクトが各所望の角度に回転され、ビューが撮影されるステップアンドシュートであると想定されています。
ただし、ステップアンドシュートの取得は遅く、フォトンを浪費する可能性があるため、実際には、データを収集しながらオブジェクトを継続的に回転させるフライスキャンが実行されます。
ただし、これにより、モーションブラーのあるビューが発生し、その結果、深刻なモーションアーティファクトを伴う再構成が発生する可能性があります。
この論文では、スパースビューフライスキャンで導入されたモーションブラーを効果的に反転できる、ジョイントのブレ除去とトモグラフィック再構成のためのモジュラーフレームワークであるCodExを紹介します。
この方法は、新しい取得方法と新しい非凸ベイズ再構成アルゴリズムの相乗的な組み合わせです。
CodExは、再構築アルゴリズムが反転する既知のバイナリコードで取得をエンコードすることによって機能します。
適切に選択されたバイナリコードを使用して測定値をエンコードすると、反転プロセスの精度を向上させることができます。
CodEx再構成法は、乗数の交互方向法(ADMM)を使用して、逆問題を反復的なぼけ除去と再構成のサブ問題に分割し、再構成の実装を実用的にします。
私たちの方法の有効性を実証するために、シミュレーションとビン化された実験データの両方で再構成結果を提示します。
要約(オリジナル)
In many computed tomography (CT) imaging applications, it is important to rapidly collect data from an object that is moving or changing with time. Tomographic acquisition is generally assumed to be step-and-shoot, where the object is rotated to each desired angle, and a view is taken. However, step-and-shoot acquisition is slow and can waste photons, so in practice fly-scanning is done where the object is continuously rotated while collecting data. However, this can result in motion-blurred views and consequently reconstructions with severe motion artifacts. In this paper, we introduce CodEx, a modular framework for joint de-blurring and tomographic reconstruction that can effectively invert the motion blur introduced in sparse view fly-scanning. The method is a synergistic combination of a novel acquisition method with a novel non-convex Bayesian reconstruction algorithm. CodEx works by encoding the acquisition with a known binary code that the reconstruction algorithm then inverts. Using a well chosen binary code to encode the measurements can improve the accuracy of the inversion process. The CodEx reconstruction method uses the alternating direction method of multipliers (ADMM) to split the inverse problem into iterative deblurring and reconstruction sub-problems, making reconstruction practical to implement. We present reconstruction results on both simulated and binned experimental data to demonstrate the effectiveness of our method.
arxiv情報
著者 | Soumendu Majee,Selin Aslan,Doga Gursoy,Charles A. Bouman |
発行日 | 2022-06-04 22:57:50+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google