要約
医用画像における血管セグメンテーションは、血管疾患の診断および治療計画における重要なタスクの 1 つです。
学習ベースのセグメンテーション アプローチは広く研究されていますが、教師あり方法では大量のグラウンド トゥルース ラベルが必要であり、バックグラウンド構造が混乱しているため、ニューラル ネットワークを教師なしで血管をセグメント化することは困難です。
これに対処するために、ここでは、敵対的学習によるノイズ除去拡散確率モデルを活用する新しい拡散敵対的表現学習 (DARL) モデルを紹介し、それを血管セグメンテーションに適用します。
特に、自己監視血管セグメンテーションの場合、DARL は拡散モジュールを使用してバックグラウンド信号を学習します。これにより、生成モジュールは血管表現を効果的に提供できます。
また、提案された切り替え可能な空間適応型非正規化に基づく敵対的学習により、モデルは合成偽の血管画像と血管セグメンテーション マスクを推定し、モデルが血管関連のセマンティック情報をさらにキャプチャできるようにします。
提案されたモデルがトレーニングされると、モデルは単一のステップでセグメンテーション マスクを生成し、冠動脈造影および網膜画像の一般的な血管構造のセグメンテーションに適用できます。
さまざまなデータセットの実験結果は、私たちの方法が既存の教師なしおよび自己教師ありの血管セグメンテーション方法よりも大幅に優れていることを示しています。
要約(オリジナル)
Vessel segmentation in medical images is one of the important tasks in the diagnosis of vascular diseases and therapy planning. Although learning-based segmentation approaches have been extensively studied, a large amount of ground-truth labels are required in supervised methods and confusing background structures make neural networks hard to segment vessels in an unsupervised manner. To address this, here we introduce a novel diffusion adversarial representation learning (DARL) model that leverages a denoising diffusion probabilistic model with adversarial learning, and apply it to vessel segmentation. In particular, for self-supervised vessel segmentation, DARL learns the background signal using a diffusion module, which lets a generation module effectively provide vessel representations. Also, by adversarial learning based on the proposed switchable spatially-adaptive denormalization, our model estimates synthetic fake vessel images as well as vessel segmentation masks, which further makes the model capture vessel-relevant semantic information. Once the proposed model is trained, the model generates segmentation masks in a single step and can be applied to general vascular structure segmentation of coronary angiography and retinal images. Experimental results on various datasets show that our method significantly outperforms existing unsupervised and self-supervised vessel segmentation methods.
arxiv情報
著者 | Boah Kim,Yujin Oh,Jong Chul Ye |
発行日 | 2023-02-15 16:14:54+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google