Noise-Consistent Siamese-Diffusion for Medical Image Synthesis and Segmentation

要約

ディープラーニングは、医療イメージのセグメンテーションに革命をもたらしましたが、注釈付きのデータセットの不足によってその潜在能力が抑制されたままです。
拡散モデルは、これらのデータセットを強化するために合成画像マスクペアを生成するための有望なアプローチとして浮上していますが、緩和することを目指しているのと同じデータ不足の課題に逆説的に苦しんでいます。
従来のマスクのみのモデルは、形態学的複雑さを適切にキャプチャできないため、忠実度の低い画像を頻繁に生成します。これは、セグメンテーションモデルの堅牢性と信頼性を大幅に損なう可能性があります。
この制限を軽減するために、マスク拡散と画像拡散を含む新しいデュアルコンポーネントモデルであるシャム拡散を紹介します。
トレーニング中に、これらのコンポーネント間にノイズの一貫性の損失が導入され、パラメーター空間でのマスク拡散の形態学的忠実性が向上します。
サンプリング中、マスク拡散のみが使用され、多様性とスケーラビリティが確保されます。
包括的な実験は、私たちの方法の優位性を示しています。
シャム拡散は、SanetのMdiceとMiouをポリープで3.6%および4.4%増加させ、UNETはISIC2018で1.52%および1.64%改善します。
コードはGitHubで入手できます。

要約(オリジナル)

Deep learning has revolutionized medical image segmentation, yet its full potential remains constrained by the paucity of annotated datasets. While diffusion models have emerged as a promising approach for generating synthetic image-mask pairs to augment these datasets, they paradoxically suffer from the same data scarcity challenges they aim to mitigate. Traditional mask-only models frequently yield low-fidelity images due to their inability to adequately capture morphological intricacies, which can critically compromise the robustness and reliability of segmentation models. To alleviate this limitation, we introduce Siamese-Diffusion, a novel dual-component model comprising Mask-Diffusion and Image-Diffusion. During training, a Noise Consistency Loss is introduced between these components to enhance the morphological fidelity of Mask-Diffusion in the parameter space. During sampling, only Mask-Diffusion is used, ensuring diversity and scalability. Comprehensive experiments demonstrate the superiority of our method. Siamese-Diffusion boosts SANet’s mDice and mIoU by 3.6% and 4.4% on the Polyps, while UNet improves by 1.52% and 1.64% on the ISIC2018. Code is available at GitHub.

arxiv情報

著者 Kunpeng Qiu,Zhiqiang Gao,Zhiying Zhou,Mingjie Sun,Yongxin Guo
発行日 2025-05-09 14:07:27+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク