Recursive Deformable Image Registration Network with Mutual Attention

要約

異なる画像間の空間変換を推定する変形可能な画像レジストレーションは、医用画像における重要なタスクです。
これまでの多くの研究では、多段階レジストレーションに学習ベースの方法を使用して3D画像レジストレーションを実行し、パフォーマンスを向上させてきました。
ただし、多段階アプローチのパフォーマンスは、単一の空間スケールで複雑な動きが発生しない受容野のサイズによって制限されます。
これらの制限を克服するために、再帰的ネットワークアーキテクチャと相互注意メカニズムを組み合わせた新しい登録ネットワークを提案します。
最先端の深部学習法と比較して、再帰的構造に基づく当社のネットワークは、肺のコンピューター断層撮影(CT)データセットで最高の精度を実現します(肺のダイススコア92 \%および平均表面距離3.8mm)
)およびさまざまなサイズの9つの臓器を含む腹部CTデータセットで最も正確な結果の1つ(55 \%のダイススコアと7.8mmの平均表面距離)。
また、推論時間を大幅に増やすことなく、最先端の結果を達成するには、3つの再帰型ネットワークを追加するだけで十分であることも示しました。

要約(オリジナル)

Deformable image registration, estimating the spatial transformation between different images, is an important task in medical imaging. Many previous studies have used learning-based methods for multi-stage registration to perform 3D image registration to improve performance. The performance of the multi-stage approach, however, is limited by the size of the receptive field where complex motion does not occur at a single spatial scale. We propose a new registration network combining recursive network architecture and mutual attention mechanism to overcome these limitations. Compared with the state-of-the-art deep learning methods, our network based on the recursive structure achieves the highest accuracy in lung Computed Tomography (CT) data set (Dice score of 92\% and average surface distance of 3.8mm for lungs) and one of the most accurate results in abdominal CT data set with 9 organs of various sizes (Dice score of 55\% and average surface distance of 7.8mm). We also showed that adding 3 recursive networks is sufficient to achieve the state-of-the-art results without a significant increase in the inference time.

arxiv情報

著者 Jian-Qing Zheng,Ziyang Wang,Baoru Huang,Ngee Han Lim,Tonia Vincent,Bartlomiej W. Papiez
発行日 2022-06-30 11:56:27+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク