要約
さまざまな画像診断モダリティにわたって緻密な解剖学的対応を確立することは、多数の医用画像解析研究や画像誘導放射線治療にとって基礎的ではあるものの、困難な手順です。
既存のマルチモダリティ画像登録アルゴリズムは、統計ベースの類似性測定または局所的な構造画像表現に依存しています。
ただし、前者は局所的に変化するノイズに敏感ですが、後者はマルチモーダルスキャンでの複雑な解剖学的構造に対処できるほど十分な識別力がないため、異なるモダリティでのスキャン間での解剖学的対応を決定する際に曖昧さが生じます。
この論文では、深層近傍自己相似性 (DNS) と解剖学を意識した対比学習を利用して、解剖学的な知識を必要とせずに識別性とコントラスト不変の深層構造画像表現 (DSIR) を学習する、モダリティに依存しない構造表現学習方法を提案します。
描写または事前に調整されたトレーニング画像。
多相 CT、腹部 MR-CT、脳 MR T1w-T2w 登録に関する方法を評価します。
包括的な結果は、私たちの方法が、識別性と精度の点で従来の局所構造表現や統計ベースの類似性測定よりも優れていることを示しています。
要約(オリジナル)
Establishing dense anatomical correspondence across distinct imaging modalities is a foundational yet challenging procedure for numerous medical image analysis studies and image-guided radiotherapy. Existing multi-modality image registration algorithms rely on statistical-based similarity measures or local structural image representations. However, the former is sensitive to locally varying noise, while the latter is not discriminative enough to cope with complex anatomical structures in multimodal scans, causing ambiguity in determining the anatomical correspondence across scans with different modalities. In this paper, we propose a modality-agnostic structural representation learning method, which leverages Deep Neighbourhood Self-similarity (DNS) and anatomy-aware contrastive learning to learn discriminative and contrast-invariance deep structural image representations (DSIR) without the need for anatomical delineations or pre-aligned training images. We evaluate our method on multiphase CT, abdomen MR-CT, and brain MR T1w-T2w registration. Comprehensive results demonstrate that our method is superior to the conventional local structural representation and statistical-based similarity measures in terms of discriminability and accuracy.
arxiv情報
著者 | Tony C. W. Mok,Zi Li,Yunhao Bai,Jianpeng Zhang,Wei Liu,Yan-Jie Zhou,Ke Yan,Dakai Jin,Yu Shi,Xiaoli Yin,Le Lu,Ling Zhang |
発行日 | 2024-04-01 02:06:07+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google