要約
異なるイメージングモダリティ間でボクセルごとのセマンティック対応を確立することは、基本的でありながら手ごわいコンピュータビジョンタスクです。
現在のマルチモダリティ登録技術は、手作りのドメイン間類似性関数を最大化し、非線形強度関係と変形のモデリングに制限があり、新しいタスク、データセット、およびドメインペアで大幅なリエンジニアリングまたはパフォーマンスの低下を必要とする場合があります。
この作品は、マルチモダリティ変形可能登録への教師なし対照表現学習アプローチであるContraRegを提示します。
学習したマルチスケールローカルパッチ機能を、共同で学習したドメイン間埋め込みスペースに投影することにより、ContraRegは、非剛体のマルチモダリティアライメントに役立つ表現を取得します。
実験的に、ContraRegは、一連のベースラインにわたる滑らかで反転可能な変形と、新生児のT1-T2脳MRI登録タスクでのアブレーションにより、正確で堅牢な結果を達成します。すべての方法は、広範囲の変形正則化強度で検証されています。
要約(オリジナル)
Establishing voxelwise semantic correspondence across distinct imaging modalities is a foundational yet formidable computer vision task. Current multi-modality registration techniques maximize hand-crafted inter-domain similarity functions, are limited in modeling nonlinear intensity-relationships and deformations, and may require significant re-engineering or underperform on new tasks, datasets, and domain pairs. This work presents ContraReg, an unsupervised contrastive representation learning approach to multi-modality deformable registration. By projecting learned multi-scale local patch features onto a jointly learned inter-domain embedding space, ContraReg obtains representations useful for non-rigid multi-modality alignment. Experimentally, ContraReg achieves accurate and robust results with smooth and invertible deformations across a series of baselines and ablations on a neonatal T1-T2 brain MRI registration task with all methods validated over a wide range of deformation regularization strengths.
arxiv情報
著者 | Neel Dey,Jo Schlemper,Seyed Sadegh Mohseni Salehi,Bo Zhou,Guido Gerig,Michal Sofka |
発行日 | 2022-06-27 16:27:53+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google