Moner: Motion Correction in Undersampled Radial MRI with Unsupervised Neural Representation

要約

ラジアル MRI における動き補正 (MoCo) は、被験者の動きが予測できないため、困難な問題です。
現在の最先端 (SOTA) MoCo アルゴリズムは、多くの場合、広範な高品質 MR 画像を使用してニューラル ネットワークを事前トレーニングし、優れた再構成を取得します。
ただし、大規模なデータセットが必要なため、コストが大幅に増加し、モデルの一般化が制限されます。
この研究では、トレーニング データを必要とせずに、アーティファクトのない MR 画像と、アンダーサンプリングされた剛体運動で破損した k 空間データからの正確な運動を共同で解決する教師なし MoCo 手法である Moner を提案します。
私たちの中心となるアイデアは、暗黙的ニューラル表現 (INR) の連続事前確率を活用して、この不正設定逆問題を制限し、理想的な解決策を可能にすることです。
具体的には、準静的運動モデルを INR に組み込んで、被験者の運動を修正する機能を付与します。
モデルの最適化を安定させるために、フーリエ スライス定理を使用して放射状 MRI を逆投影問題として再定式化します。
さらに、MoCo の精度を大幅に向上させる、新しい粗いハッシュから細かいハッシュへのエンコード戦略を提案します。
複数の MRI データセットでの実験では、Moner がドメイン内データで SOTA MoCo 技術と同等のパフォーマンスを達成し、ドメイン外データで大幅な改善が実証されたことが示されています。

要約(オリジナル)

Motion correction (MoCo) in radial MRI is a challenging problem due to the unpredictability of subject’s motion. Current state-of-the-art (SOTA) MoCo algorithms often use extensive high-quality MR images to pre-train neural networks, obtaining excellent reconstructions. However, the need for large-scale datasets significantly increases costs and limits model generalization. In this work, we propose Moner, an unsupervised MoCo method that jointly solves artifact-free MR images and accurate motion from undersampled, rigid motion-corrupted k-space data, without requiring training data. Our core idea is to leverage the continuous prior of implicit neural representation (INR) to constrain this ill-posed inverse problem, enabling ideal solutions. Specifically, we incorporate a quasi-static motion model into the INR, granting its ability to correct subject’s motion. To stabilize model optimization, we reformulate radial MRI as a back-projection problem using the Fourier-slice theorem. Additionally, we propose a novel coarse-to-fine hash encoding strategy, significantly enhancing MoCo accuracy. Experiments on multiple MRI datasets show our Moner achieves performance comparable to SOTA MoCo techniques on in-domain data, while demonstrating significant improvements on out-of-domain data.

arxiv情報

著者 Qing Wu,Chenhe Du,XuanYu Tian,Jingyi Yu,Yuyao Zhang,Hongjiang Wei
発行日 2024-12-02 18:01:53+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, eess.IV パーマリンク