Coarse Retinal Lesion Annotations Refinement via Prototypical Learning

要約

網膜病変セグメンテーションのための深層学習ベースのアプローチでは、多くの場合、大量の正確なピクセル単位の注釈付きデータが必要です。
ただし、病変領域の輪郭を描くための円や楕円などの粗い注釈は、ピクセルレベルの注釈よりも 6 倍効率的です。
したがって、この論文では、粗い注釈をピクセルレベルのセグメンテーションマスクに変換する注釈洗練ネットワークを提案します。
私たちの主な目新しさは、プロトタイプ学習パラダイムを適用して、さまざまなデータセットまたは病変の種類にわたる一般化能力を強化することです。
また、病変が非常に小さいという困難なケースを処理するためのプロトタイプの重み付けモジュールも紹介します。
提案された方法は、公開されている IDRiD データセットでトレーニングされた後、パブリック DDR と実世界のプライベート データセットに一般化されました。
実験は、我々のアプローチが初期の粗いマスクを大幅に改善し、非プロトタイプのベースラインよりも大幅に優れていることを示しています。
さらに、クロスデータセットとクロスクラスの両方の設定で、プロトタイプの重み付けモジュールの有用性を示します。

要約(オリジナル)

Deep-learning-based approaches for retinal lesion segmentation often require an abundant amount of precise pixel-wise annotated data. However, coarse annotations such as circles or ellipses for outlining the lesion area can be six times more efficient than pixel-level annotation. Therefore, this paper proposes an annotation refinement network to convert a coarse annotation into a pixel-level segmentation mask. Our main novelty is the application of the prototype learning paradigm to enhance the generalization ability across different datasets or types of lesions. We also introduce a prototype weighing module to handle challenging cases where the lesion is overly small. The proposed method was trained on the publicly available IDRiD dataset and then generalized to the public DDR and our real-world private datasets. Experiments show that our approach substantially improved the initial coarse mask and outperformed the non-prototypical baseline by a large margin. Moreover, we demonstrate the usefulness of the prototype weighing module in both cross-dataset and cross-class settings.

arxiv情報

著者 Qinji Yu,Kang Dang,Ziyu Zhou,Yongwei Chen,Xiaowei Ding
発行日 2022-08-30 14:22:47+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク