Bayesian Unsupervised Disentanglement of Anatomy and Geometry for Deep Groupwise Image Registration

要約

本稿では、マルチモーダル群別画像登録のための一般的なベイズ学習の枠組みを提示する。この手法は画像生成過程の確率論的モデリングに基づいており、観測された画像の根底にある共通の解剖学的・幾何学的変異は潜在変数として明示的に分離される。したがって、グループ単位の画像登録は、階層的ベイズ推論によって達成される。我々は、潜在変数の推論手順を実現するために、新しい階層的変分自動符号化アーキテクチャを提案し、これによりレジストレーションパラメータを数学的に解釈可能な方法で明示的に推定することができる。驚くべきことに、この新しいパラダイムは、複雑な画像ベースの類似性尺度を設計する負担を軽減し、教師なし閉ループ自己再構成プロセスにおいて、グループ単位の画像レジストレーションを学習する。また、計算効率の高い離散ネットワークアーキテクチャは、本質的にスケーラブルで柔軟であるため、様々な大きさを持つ大規模な画像グループに対するグループ単位の登録が可能である。さらに、離散化学習によりマルチモーダル画像から推定された構造表現は、視覚的な意味付けにより、観察の潜在的な解剖学的構造を捉えることができる。提案フレームワークを検証するために、心臓、脳、腹部の医用画像からなる4つの異なるデータセットを含む広範な実験を行った。その結果、精度、効率性、拡張性、解釈可能性の観点から、従来の類似性に基づくアプローチよりも本手法が優れていることが実証された。

要約(オリジナル)

This article presents a general Bayesian learning framework for multi-modal groupwise image registration. The method builds on probabilistic modelling of the image generative process, where the underlying common anatomy and geometric variations of the observed images are explicitly disentangled as latent variables. Therefore, groupwise image registration is achieved via hierarchical Bayesian inference. We propose a novel hierarchical variational auto-encoding architecture to realise the inference procedure of the latent variables, where the registration parameters can be explicitly estimated in a mathematically interpretable fashion. Remarkably, this new paradigm learns groupwise image registration in an unsupervised closed-loop self-reconstruction process, sparing the burden of designing complex image-based similarity measures. The computationally efficient disentangled network architecture is also inherently scalable and flexible, allowing for groupwise registration on large-scale image groups with variable sizes. Furthermore, the inferred structural representations from multi-modal images via disentanglement learning are capable of capturing the latent anatomy of the observations with visual semantics. Extensive experiments were conducted to validate the proposed framework, including four different datasets from cardiac, brain, and abdominal medical images. The results have demonstrated the superiority of our method over conventional similarity-based approaches in terms of accuracy, efficiency, scalability, and interpretability.

arxiv情報

著者 Xinzhe Luo,Xin Wang,Linda Shapiro,Chun Yuan,Jianfeng Feng,Xiahai Zhuang
発行日 2024-10-04 13:29:14+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV パーマリンク