Recurrent Image Registration using Mutual Attention based Network

要約

画像レジストレーションは、異なる画像間の空間変換を推定する医用画像の重要なタスクです。
これまでの多くの研究では、多段階レジストレーションに学習ベースの方法を使用して3D画像レジストレーションを実行し、パフォーマンスを向上させてきました。
ただし、多段階アプローチのパフォーマンスは、単一の空間スケールで複雑な動きが発生しない受容野のサイズによって制限されます。
これらの制限を克服するために、再帰的ネットワークアーキテクチャと相互注意メカニズムを組み合わせた新しい登録ネットワークを提案します。
以前の深層学習法と比較して、再帰的構造に基づくネットワークは、肺のコンピューター断層撮影(CT)データセット(肺のダイススコア92 \%および平均表面距離3.8mm)で最高の精度を達成し、最も優れたものの1つです。
さまざまなサイズの9つの臓器を含む腹部CTデータセットで正確な結果が得られます(55 \%のダイススコアと7.8mmの平均表面距離)。
また、推論時間を大幅に増やすことなく、最先端の結果を達成するには、3つの再帰型ネットワークを追加するだけで十分であることも示しました。

要約(オリジナル)

Image registration is an important task in medical imaging which estimates the spatial transformation between different images. Many previous studies have used learning-based methods for multi-stage registration to perform 3D image registration to improve performance. The performance of the multi-stage approach, however, is limited by the size of the receptive field where complex motion does not occur at a single spatial scale. We propose a new registration network combining recursive network architecture and mutual attention mechanism to overcome these limitations. Compared with the previous deep learning methods, our network based on the recursive structure achieves the highest accuracy in lung Computed Tomography (CT) data set (Dice score of 92\% and average surface distance of 3.8mm for lungs) and one of the most accurate results in abdominal CT data set with 9 organs of various sizes (Dice score of 55\% and average surface distance of 7.8mm). We also showed that adding 3 recursive networks is sufficient to achieve the state-of-the-art results without a significant increase in the inference time.

arxiv情報

著者 Jian-Qing Zheng,Ziyang Wang,Baoru Huang,Ngee Han Lim,Tonia Vincent,Bartlomiej W. Papiez
発行日 2022-06-04 00:35:14+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク