要約
教師なし画像レジストレーションでは、通常、U-Net スタイルのネットワークを採用して、フル解像度の空間領域で密な変位場を予測します。
ただし、高解像度の体積画像データの場合、このプロセスはリソースを大量に消費し、時間がかかります。
この問題に取り組むために、U-Net スタイルのネットワークの拡張パスをパラメーターフリーのモデル駆動型デコーダーに置き換えるフーリエネットを提案します。
具体的には、空間領域でフル解像度の変位場を出力するフーリエ ネット学習の代わりに、帯域制限されたフーリエ領域でその低次元表現を学習します。
次に、この表現は、私たちが考案したモデル駆動型デコーダ (ゼロ パディング層と逆離散フーリエ変換層で構成される) によって、空間領域の高密度のフル解像度の変位フィールドにデコードされます。
これらの変更により、教師なしフーリエネットに含まれるパラメーターと計算操作が減り、推論速度が向上しました。
次に、フーリエ ネットは、さまざまな最先端のアプローチに対して 2 つの公開 3D 脳データセットで評価されます。
たとえば、TransMorph という名前の最近のトランスフォーマー ベースの手法と比較すると、パラメーターの 2.2\% と積和演算の 6.66\% のみを使用するフーリエ ネットは、0.5\% 高い Dice スコアを達成し、
推論速度が 11.48 倍速くなります。
コードは \url{https://github.com/xi-jia/Fourier-Net} で入手できます。
要約(オリジナル)
Unsupervised image registration commonly adopts U-Net style networks to predict dense displacement fields in the full-resolution spatial domain. For high-resolution volumetric image data, this process is however resource-intensive and time-consuming. To tackle this problem, we propose the Fourier-Net, replacing the expansive path in a U-Net style network with a parameter-free model-driven decoder. Specifically, instead of our Fourier-Net learning to output a full-resolution displacement field in the spatial domain, we learn its low-dimensional representation in a band-limited Fourier domain. This representation is then decoded by our devised model-driven decoder (consisting of a zero padding layer and an inverse discrete Fourier transform layer) to the dense, full-resolution displacement field in the spatial domain. These changes allow our unsupervised Fourier-Net to contain fewer parameters and computational operations, resulting in faster inference speeds. Fourier-Net is then evaluated on two public 3D brain datasets against various state-of-the-art approaches. For example, when compared to a recent transformer-based method, named TransMorph, our Fourier-Net, which only uses 2.2\% of its parameters and 6.66\% of the multiply-add operations, achieves a 0.5\% higher Dice score and an 11.48 times faster inference speed. Code is available at \url{https://github.com/xi-jia/Fourier-Net}.
arxiv情報
| 著者 | Xi Jia,Joseph Bartlett,Wei Chen,Siyang Song,Tianyang Zhang,Xinxing Cheng,Wenqi Lu,Zhaowen Qiu,Jinming Duan |
| 発行日 | 2023-07-06 13:46:06+00:00 |
| arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google