Rethinking the transfer learning for FCN based polyp segmentation in colonoscopy

要約

光の反射などの固有のフレーム形成アーティファクトやポリープのタイプ/形状の多様性を伴う大腸内視鏡フレームの複雑な性質に加えて、一般に利用可能なポリープセグメンテーショントレーニングデータセットは限られており、小さくアンバランスである。このような場合、ディープニューラルネットワークを用いた自動ポリプセグメンテーションは、小さなデータセットでの学習によるオーバーフィッティングのため、未解決の課題として残されています。我々は、セグメンテーション(FCN)と分類(CNN)のタスクを結合した、シンプルかつ効果的なポリープセグメンテーションパイプラインを提案した。我々は、密な視覚タスクと粗い視覚タスクの間のインタラクティブな重み伝達が、学習におけるオーバーフィッティングを緩和する有効性を見出した。また、セグメンテーションパイプラインにおける新しい学習スキームを設計する動機付けとなる。本手法をCVC-EndoSceneStillとKvasir-SEGデータセットで評価した。その結果,EndoSceneStillとKvasir-SEGのデータセットにおいて,それぞれ4.34%と5.70%のPolyp-IoUの改善を達成することができた.

要約(オリジナル)

Besides the complex nature of colonoscopy frames with intrinsic frame formation artefacts such as light reflections and the diversity of polyp types/shapes, the publicly available polyp segmentation training datasets are limited, small and imbalanced. In this case, the automated polyp segmentation using a deep neural network remains an open challenge due to the overfitting of training on small datasets. We proposed a simple yet effective polyp segmentation pipeline that couples the segmentation (FCN) and classification (CNN) tasks. We find the effectiveness of interactive weight transfer between dense and coarse vision tasks that mitigates the overfitting in learning. And It motivates us to design a new training scheme within our segmentation pipeline. Our method is evaluated on CVC-EndoSceneStill and Kvasir-SEG datasets. It achieves 4.34% and 5.70% Polyp-IoU improvements compared to the state-of-the-art methods on the EndoSceneStill and Kvasir-SEG datasets, respectively.

arxiv情報

著者 Yan Wen,Lei Zhang,Xiangli Meng,Xujiong Ye
発行日 2022-11-04 12:42:58+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV パーマリンク