Deformer: Towards Displacement Field Learning for Unsupervised Medical Image Registration

要約

最近、ディープラーニングベースのアプローチが変形可能な画像レジストレーションタスクのために広く研究されています。
ただし、ほとんどの取り組みは、畳み込みニューラルネットワークを介して合成画像表現を空間変換に直接マッピングし、空間対応をキャプチャする能力が限られていることを無視しています。
一方、Transformerは、注意メカニズムとの空間的関係をより適切に特徴付けることができます。その長距離依存性は、距離が長すぎるボクセルが対応するペアである可能性が低い登録タスクに有害である可能性があります。
この研究では、変形可能な画像レジストレーションタスクのためのマルチスケールフレームワークとともに、新しい変形モジュールを提案します。
Deformerモジュールは、変位ベクトル予測を複数のベースの加重和として定式化することにより、画像表現から空間変換へのマッピングを容易にするように設計されています。
変位フィールドを大まかな方法​​で予測するマルチスケールフレームワークを使用すると、従来の学習ベースのアプローチと比較して、優れたパフォーマンスを実現できます。
提案されたDeformerモジュールとマルチスケールフレームワークの有効性を実証するために、2つの公開データセットに関する包括的な実験が行われます。

要約(オリジナル)

Recently, deep-learning-based approaches have been widely studied for deformable image registration task. However, most efforts directly map the composite image representation to spatial transformation through the convolutional neural network, ignoring its limited ability to capture spatial correspondence. On the other hand, Transformer can better characterize the spatial relationship with attention mechanism, its long-range dependency may be harmful to the registration task, where voxels with too large distances are unlikely to be corresponding pairs. In this study, we propose a novel Deformer module along with a multi-scale framework for the deformable image registration task. The Deformer module is designed to facilitate the mapping from image representation to spatial transformation by formulating the displacement vector prediction as the weighted summation of several bases. With the multi-scale framework to predict the displacement fields in a coarse-to-fine manner, superior performance can be achieved compared with traditional and learning-based approaches. Comprehensive experiments on two public datasets are conducted to demonstrate the effectiveness of the proposed Deformer module as well as the multi-scale framework.

arxiv情報

著者 Jiashun Chen,Donghuan Lu,Yu Zhang,Dong Wei,Munan Ning,Xinyu Shi,Zhe Xu,Yefeng Zheng
発行日 2022-07-07 09:14:40+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, eess.IV パーマリンク