要約
クロスモダリティ画像合成は、複数の医療臨床関連アプリケーションを備えた活発な研究トピックです。
最近、ペアになっているが位置合わせされていないデータを使用してトレーニングできる方法が出現し始めました。
ただし、幅広い実世界のデータセットに適用できる堅牢でパフォーマンスの高い方法は存在しません。
この作業では、損失関数を促進する新しい変形等分散を導入することにより、対になっているが整列していないデータを使用したクロスモダリティ画像合成の問題に対する一般的な解決策を提案します。
この方法は、画像合成ネットワークと個別の登録ネットワークの共同トレーニングで構成され、データがずれていても入力を条件とした敵対的トレーニングを可能にします。
この作業は、より困難なデータセットのクロスモダリティ画像合成ネットワークの簡単なトレーニングを可能にすることで、新しい臨床アプリケーションのハードルを下げ、新しい汎用学習ベースのクロスモダリティ登録アルゴリズムの開発の機会を開きます。
要約(オリジナル)
Cross-modality image synthesis is an active research topic with multiple medical clinically relevant applications. Recently, methods allowing training with paired but misaligned data have started to emerge. However, no robust and well-performing methods applicable to a wide range of real world data sets exist. In this work, we propose a generic solution to the problem of cross-modality image synthesis with paired but non-aligned data by introducing new deformation equivariance encouraging loss functions. The method consists of joint training of an image synthesis network together with separate registration networks and allows adversarial training conditioned on the input even with misaligned data. The work lowers the bar for new clinical applications by allowing effortless training of cross-modality image synthesis networks for more difficult data sets and opens up opportunities for the development of new generic learning based cross-modality registration algorithms.
arxiv情報
著者 | Joel Honkamaa,Umair Khan,Sonja Koivukoski,Leena Latonen,Pekka Ruusuvuori,Pekka Marttinen |
発行日 | 2022-08-26 08:12:40+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google