Unsupervised 3D registration through optimization-guided cyclical self-training

要約

最先端の深層学習ベースの登録方法では、3 つの異なる学習戦略が採用されています。1 つはコストのかかる手動のアノテーションを必要とする教師あり学習、ドメインの専門家によって設計された手作りの類似性メトリクスに大きく依存する教師なし学習、または合成データからの学習です。
、ドメイン シフトが導入されます。
これらの戦略の限界を克服するために、自己訓練に依存した教師なし登録のための新しい自己教師あり学習パラダイムを提案します。
私たちのアイデアは 2 つの重要な洞察に基づいています。
特徴ベースの微分可能オプティマイザーは、1) ランダムな特徴からでも合理的な登録を実行し、2) ノイズの多いラベルでの先行する特徴抽出ネットワークのトレーニングを安定させます。
したがって、擬似ラベルがランダムな特徴から推論される変位フィールドとして初期化され、学習特徴抽出器からのより多くの表現力豊かな特徴に基づいて周期的に更新され、自己強化効果が得られる、周期的自己トレーニングを提案します。
当社は腹部と肺の登録方法を評価し、常に測定基準に基づく監視を上回り、さまざまな最先端の競合他社を上回っています。
ソース コードは https://github.com/multimodallearning/reg-cyclical-self-train で入手できます。

要約(オリジナル)

State-of-the-art deep learning-based registration methods employ three different learning strategies: supervised learning, which requires costly manual annotations, unsupervised learning, which heavily relies on hand-crafted similarity metrics designed by domain experts, or learning from synthetic data, which introduces a domain shift. To overcome the limitations of these strategies, we propose a novel self-supervised learning paradigm for unsupervised registration, relying on self-training. Our idea is based on two key insights. Feature-based differentiable optimizers 1) perform reasonable registration even from random features and 2) stabilize the training of the preceding feature extraction network on noisy labels. Consequently, we propose cyclical self-training, where pseudo labels are initialized as the displacement fields inferred from random features and cyclically updated based on more and more expressive features from the learning feature extractor, yielding a self-reinforcement effect. We evaluate the method for abdomen and lung registration, consistently surpassing metric-based supervision and outperforming diverse state-of-the-art competitors. Source code is available at https://github.com/multimodallearning/reg-cyclical-self-train.

arxiv情報

著者 Alexander Bigalke,Lasse Hansen,Tony C. W. Mok,Mattias P. Heinrich
発行日 2023-06-29 14:54:10+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク