SkinFormer: Learning Statistical Texture Representation with Transformer for Skin Lesion Segmentation

要約

ダーモスコピー画像からの皮膚病変の正確なセグメンテーションは、皮膚がんの診断にとって非常に重要です。
ただし、有用なテクスチャ表現を学習プロセスに組み込むことが難しいため、黒色腫の自動セグメンテーションは依然として困難な作業です。
テクスチャ表現は、CNN によって学習された局所的な構造情報に関連するだけでなく、入力画像のグローバルな統計的なテクスチャ情報も含まれます。
この論文では、\textbf{Skin} 病変セグメンテーションのための統計的テクスチャ表現を効率的に抽出および融合する trans\textbf{Former} ネットワーク (\textbf{SkinFormer}) を提案します。
具体的には、入力特徴の統計的テクスチャを定量化するために、尖度に基づく統計カウント オペレーターが設計されています。
私たちは、トランスフォーマーのグローバル アテンション メカニズムを利用することにより、尖度ガイド付き統計カウント オペレーターの助けを借りて、統計テクスチャ融合トランスフォーマーと統計テクスチャ強化トランスフォーマーを提案します。
前者は構造テクスチャ情報と統計テクスチャ情報を融合し、後者はマルチスケール フィーチャの統計テクスチャを強化します。
{公的に入手可能な 3 つの皮膚病変データセットに対する広範な実験により、当社の SkinFormer が他の SOAT 手法より優れていることが検証され、当社の手法は ISIC 2018 で 93.2\% の Dice スコアを達成しました。将来的には、SkinFormer を拡張して 3D 画像をセグメント化するのは簡単になる可能性があります。} 私たちのコード
https://github.com/Rongtao-Xu/SkinFormer で入手できます。

要約(オリジナル)

Accurate skin lesion segmentation from dermoscopic images is of great importance for skin cancer diagnosis. However, automatic segmentation of melanoma remains a challenging task because it is difficult to incorporate useful texture representations into the learning process. Texture representations are not only related to the local structural information learned by CNN, but also include the global statistical texture information of the input image. In this paper, we propose a trans\textbf{Former} network (\textbf{SkinFormer}) that efficiently extracts and fuses statistical texture representation for \textbf{Skin} lesion segmentation. Specifically, to quantify the statistical texture of input features, a Kurtosis-guided Statistical Counting Operator is designed. We propose Statistical Texture Fusion Transformer and Statistical Texture Enhance Transformer with the help of Kurtosis-guided Statistical Counting Operator by utilizing the transformer’s global attention mechanism. The former fuses structural texture information and statistical texture information, and the latter enhances the statistical texture of multi-scale features. {Extensive experiments on three publicly available skin lesion datasets validate that our SkinFormer outperforms other SOAT methods, and our method achieves 93.2\% Dice score on ISIC 2018. It can be easy to extend SkinFormer to segment 3D images in the future.} Our code is available at https://github.com/Rongtao-Xu/SkinFormer.

arxiv情報

著者 Rongtao Xu,Changwei Wang,Jiguang Zhang,Shibiao Xu,Weiliang Meng,Xiaopeng Zhang
発行日 2024-09-13 09:11:52+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, eess.IV パーマリンク