DiffSeg: A Segmentation Model for Skin Lesions Based on Diffusion Difference

要約

生成モデルを使用した弱教師医療画像セグメンテーション (MIS) は、臨床診断に不可欠です。
ただし、セグメンテーション結果の精度は、監視が不十分なことや医療画像の複雑な性質によって制限されることがよくあります。
既存のモデルも単一の結果しか提供しないため、不確実性を測定することはできません。
この論文では、拡散差に基づく皮膚病変のセグメンテーション モデルである DiffSeg を紹介します。これは、拡散モデルの原理を利用して、多様な意味情報を持つ画像からノイズ ベースの特徴を抽出します。
これらのノイズ特徴間の違いを識別することにより、モデルは病気の領域を特定します。
さらに、そのマルチ出力機能は医師の注釈動作を模倣し、セグメンテーション結果の一貫性と曖昧さの視覚化を容易にします。
さらに、一般化エネルギー距離 (GED) を使用して出力の不確実性を定量化し、医師の解釈と意思決定を支援します。
最後に、モデルは、Dense Conditional Random Field (DenseCRF) アルゴリズムを通じて出力を統合し、ピクセル間の相関を考慮してセグメンテーション境界を調整します。これにより、精度が向上し、セグメンテーション結果が最適化されます。
私たちは、ISIC 2018 Challenge データセットに対する DiffSeg の有効性を実証し、最先端の U-Net ベースの手法を上回りました。

要約(オリジナル)

Weakly supervised medical image segmentation (MIS) using generative models is crucial for clinical diagnosis. However, the accuracy of the segmentation results is often limited by insufficient supervision and the complex nature of medical imaging. Existing models also only provide a single outcome, which does not allow for the measurement of uncertainty. In this paper, we introduce DiffSeg, a segmentation model for skin lesions based on diffusion difference which exploits diffusion model principles to ex-tract noise-based features from images with diverse semantic information. By discerning difference between these noise features, the model identifies diseased areas. Moreover, its multi-output capability mimics doctors’ annotation behavior, facilitating the visualization of segmentation result consistency and ambiguity. Additionally, it quantifies output uncertainty using Generalized Energy Distance (GED), aiding interpretability and decision-making for physicians. Finally, the model integrates outputs through the Dense Conditional Random Field (DenseCRF) algorithm to refine the segmentation boundaries by considering inter-pixel correlations, which improves the accuracy and optimizes the segmentation results. We demonstrate the effectiveness of DiffSeg on the ISIC 2018 Challenge dataset, outperforming state-of-the-art U-Net-based methods.

arxiv情報

著者 Zhihao Shuai,Yinan Chen,Shunqiang Mao,Yihan Zho,Xiaohong Zhang
発行日 2024-04-25 09:57:52+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV パーマリンク