Towards Architecture-Insensitive Untrained Network Priors for Accelerated MRI Reconstruction

要約

Deep Image Prior (DIP) によって開拓された未訓練のニューラル ネットワークにより、最近、トレーニングのために完全にサンプリングされた測定を必要とせずに MRI 再構成が可能になりました。
彼らの成功は、適切なネットワーク アーキテクチャによって引き起こされた暗黙的な正則化に広く起因しています。
ただし、そのようなアーキテクチャ上の事前の理解が欠如していると、余分な設計の選択が生じ、最適とは言えない結果が生じます。
この作業は、DIP-MRI のアーキテクチャ設計の決定を簡素化し、実際の展開を容易にすることを目的としています。
特定のアーキテクチャ コンポーネントはパラメータの数に関係なくオーバーフィッティングを引き起こす傾向があり、未取得の測定値の正確な外挿を妨げることにより深刻な再構成アーティファクトが発生することが観察されています。
私たちはこの現象を周波数の観点から解釈し、低周波を好むアーキテクチャ上の特徴、つまり学習されていないアップサンプリングによる深くて狭いことが、一般化の強化と、それによるより良い再構成につながる可能性があることを発見しました。
この洞察に基づいて、アーキテクチャに依存しない 2 つの解決策を提案します。1 つはホワイト ノイズ入力の周波数範囲を制限することであり、もう 1 つはネットワークのリプシッツ定数にペナルティを与えることです。
入力にコードを 1 行追加するだけでも、不適切に設計されたモデルと高パフォーマンスのモデルとの間のパフォーマンスのギャップを埋めることができることを示します。
これらの結果は、トレーニングを受けていない MRI 再構成に対するアーキテクチャ上のバイアスが、アーキテクチャを変更することなく軽減できることを初めて示しています。

要約(オリジナル)

Untrained neural networks pioneered by Deep Image Prior (DIP) have recently enabled MRI reconstruction without requiring fully-sampled measurements for training. Their success is widely attributed to the implicit regularization induced by suitable network architectures. However, the lack of understanding of such architectural priors results in superfluous design choices and sub-optimal outcomes. This work aims to simplify the architectural design decisions for DIP-MRI to facilitate its practical deployment. We observe that certain architectural components are more prone to causing overfitting regardless of the number of parameters, incurring severe reconstruction artifacts by hindering accurate extrapolation on the un-acquired measurements. We interpret this phenomenon from a frequency perspective and find that the architectural characteristics favoring low frequencies, i.e., deep and narrow with unlearnt upsampling, can lead to enhanced generalization and hence better reconstruction. Building on this insight, we propose two architecture-agnostic remedies: one to constrain the frequency range of the white-noise input and the other to penalize the Lipschitz constants of the network. We demonstrate that even with just one extra line of code on the input, the performance gap between the ill-designed models and the high-performing ones can be closed. These results signify that for the first time, architectural biases on untrained MRI reconstruction can be mitigated without architectural modifications.

arxiv情報

著者 Yilin Liu,Yunkui Pang,Jiang Li,Yong Chen,Pew-Thian Yap
発行日 2023-12-15 18:01:47+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, eess.IV パーマリンク