SUPRA: Superpixel Guided Loss for Improved Multi-modal Segmentation in Endoscopy

要約

タイトル:SUPRA:内視鏡における改良されたマルチモーダルセグメンテーションのためのスーパーピクセルガイドロス

要約:
– ドメインシフトは、医療画像解析のコミュニティでよく知られた問題です。
– 内視鏡画像解析においては、データが異なるモードを持つことがあり、深層学習(DL)手法の性能が低下します。つまり、1つのモードで開発された手法は、別のモードでは使用できません。
– しかし、実際の臨床環境では、内視鏡医師は粘膜の可視化を改善するためにモードを切り替えます。
– 本論文では、DL手法をこのようなシナリオで使用できるようにするためのドメイン一般化技術を探求しています。
– そのために、Simple Linear Iterative Clustering(SLIC)で生成されたスーパーピクセルを使用することを提案し、「SUPRA」と呼びます。
– SUPRAは、まず新しい損失「SLICLoss」を使用して正確で色に一貫性のあるセグメンテーションを促す初期セグメンテーションマスクを生成します。
– SLICLossとBinary Cross Entropy損失(BCE)を組み合わせると、ドメインシフトのあるデータでモデルの汎用性が向上することを示します。
– 本論文では、EndoUDAデータセットを使用して、バレット食道やポリープの2つのモダリティの画像を含め、バニラU-Netでこの新しい複合損失を検証し、ベースラインに比べてターゲットドメインセットで20%以上の改善が見られることを示します。

要約(オリジナル)

Domain shift is a well-known problem in the medical imaging community. In particular, for endoscopic image analysis where the data can have different modalities the performance of deep learning (DL) methods gets adversely affected. In other words, methods developed on one modality cannot be used for a different modality. However, in real clinical settings, endoscopists switch between modalities for better mucosal visualisation. In this paper, we explore the domain generalisation technique to enable DL methods to be used in such scenarios. To this extend, we propose to use super pixels generated with Simple Linear Iterative Clustering (SLIC) which we refer to as ‘SUPRA’ for SUPeRpixel Augmented method. SUPRA first generates a preliminary segmentation mask making use of our new loss ‘SLICLoss’ that encourages both an accurate and color-consistent segmentation. We demonstrate that SLICLoss when combined with Binary Cross Entropy loss (BCE) can improve the model’s generalisability with data that presents significant domain shift. We validate this novel compound loss on a vanilla U-Net using the EndoUDA dataset, which contains images for Barret’s Esophagus and polyps from two modalities. We show that our method yields an improvement of nearly 20% in the target domain set compared to the baseline.

arxiv情報

著者 Rafael Martinez-Garcia-Peña,Mansoor Ali Teevno,Gilberto Ochoa-Ruiz,Sharib Ali
発行日 2023-04-09 18:30:47+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CV, cs.LG, q-bio.QM パーマリンク