ACSGRegNet: A Deep Learning-based Framework for Unsupervised Joint Affine and Diffeomorphic Registration of Lumbar Spine CT via Cross- and Self-Attention Fusion

要約

医用画像解析においてレジストレーションは重要な役割を担っている。深層学習に基づく医用画像レジストレーションの手法が研究されており、畳み込みニューラルネットワーク(CNN)を活用して、一対の画像から密な変形場を効率的にレジストレーションすることが可能である。しかし、CNNは、正確な画像登録のために重要な、意味的に意味のある画像内および画像間の空間的対応関係を抽出する能力に限界がある。本研究では、ACSGRegNetと呼ばれる、教師なしアフィンおよび差分変形登録のための新しいエンドツーエンドの深層学習ベースのフレームワークを提案し、これは画像間特徴対応を確立するための交差注意モジュールと画像内解剖学的構造を認識するための自己注意モジュールを統合している。両注意のモジュールは、トランスフォーマーエンコーダで構築されている。各注意モジュールからの出力は、それぞれデコーダに供給され、速度場を生成する。さらに、ゲート付き融合モジュールを導入し、両速度場を融合させる。融合された速度場は、次に、高密度の変形場に統合される。腰椎CT画像に対して広範な実験が行われた。一度モデルを学習させれば、未見の腰椎のペアを一発で登録することができる。450組の椎骨CTデータで評価したところ、本手法は平均Dice0.963、平均距離誤差0.321mmと、最先端技術(SOTA)よりも良好な結果を得た。

要約(オリジナル)

Registration plays an important role in medical image analysis. Deep learning-based methods have been studied for medical image registration, which leverage convolutional neural networks (CNNs) for efficiently regressing a dense deformation field from a pair of images. However, CNNs are limited in its ability to extract semantically meaningful intra- and inter-image spatial correspondences, which are of importance for accurate image registration. This study proposes a novel end-to-end deep learning-based framework for unsupervised affine and diffeomorphic deformable registration, referred as ACSGRegNet, which integrates a cross-attention module for establishing inter-image feature correspondences and a self-attention module for intra-image anatomical structures aware. Both attention modules are built on transformer encoders. The output from each attention module is respectively fed to a decoder to generate a velocity field. We further introduce a gated fusion module to fuse both velocity fields. The fused velocity field is then integrated to a dense deformation field. Extensive experiments are conducted on lumbar spine CT images. Once the model is trained, pairs of unseen lumbar vertebrae can be registered in one shot. Evaluated on 450 pairs of vertebral CT data, our method achieved an average Dice of 0.963 and an average distance error of 0.321mm, which are better than the state-of-the-art (SOTA).

arxiv情報

著者 Xiaoru Gao,GuoYan Zheng
発行日 2022-08-04 13:13:48+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CV パーマリンク