Adaptive Diffusion Priors for Accelerated MRI Reconstruction

要約

ディープMRIの再構成は、アンダーサンプルの画像をデエイリアスして、フルサンプルのデータと一致する画像を復元する条件付きモデルを用いて行われるのが一般的である。条件付きモデルは、イメージングオペレータの知識を用いて学習されるため、可変オペレータ間での汎化性が低いことがあります。その代わりに、無条件モデルは、ドメインシフトに対する信頼性を向上させるために、イメージングオペレータから切り離された生成的な画像プリオールを学習します。最近の拡散モデルは、その高いサンプル忠実度から、特に有望視されている。しかしながら、静的な画像事前分布を用いた推論では、最適な結果が得られないことがある。本論文では、MRI再構成のための最初の適応的拡散事前分布、AdaDiffを提案し、ドメインシフトに対する性能と信頼性を向上させます。AdaDiffは、大きな逆拡散ステップに対して敵対的マッピングにより学習された効率的な拡散事前分布を利用する。学習後、2段階の再構成が実行されます。学習された事前分布を用いた初期再構成を行う急速拡散フェーズと、取得データにおける再構成損失を最小化するために事前分布を更新して結果をさらに洗練させる適応フェーズが行われます。マルチコントラスト脳MRIを用いた実証実験により、AdaDiffはドメインシフト下において競合する条件付きおよび無条件の手法を上回り、ドメイン内では同等以上の性能を達成することが明確に示されました。

要約(オリジナル)

Deep MRI reconstruction is commonly performed with conditional models that de-alias undersampled acquisitions to recover images consistent with fully-sampled data. Since conditional models are trained with knowledge of the imaging operator, they can show poor generalization across variable operators. Unconditional models instead learn generative image priors decoupled from the imaging operator to improve reliability against domain shifts. Recent diffusion models are particularly promising given their high sample fidelity. Nevertheless, inference with a static image prior can perform suboptimally. Here we propose the first adaptive diffusion prior for MRI reconstruction, AdaDiff, to improve performance and reliability against domain shifts. AdaDiff leverages an efficient diffusion prior trained via adversarial mapping over large reverse diffusion steps. A two-phase reconstruction is executed following training: a rapid-diffusion phase that produces an initial reconstruction with the trained prior, and an adaptation phase that further refines the result by updating the prior to minimize reconstruction loss on acquired data. Demonstrations on multi-contrast brain MRI clearly indicate that AdaDiff outperforms competing conditional and unconditional methods under domain shifts, and achieves superior or on par within-domain performance.

arxiv情報

著者 Alper Güngör,Salman UH Dar,Şaban Öztürk,Yilmaz Korkmaz,Gokberk Elmas,Muzaffer Özbey,Tolga Çukur
発行日 2022-11-03 16:48:10+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV, eess.IV パーマリンク