Anytime, Anywhere, Anyone: Investigating the Feasibility of Segment Anything Model for Crowd-Sourcing Medical Image Annotations

要約

医療画像セグメンテーション用のアノテーションのキュレーションは、専門分野の専門知識を必要とする多大な労力と時間のかかる作業であり、その結果、翻訳の有用性が限定された「狭い」焦点を当てた深層学習 (DL) モデルが作成されます。
最近では、Segment Anything Model (SAM) のような基礎モデルが、医療画像を含むさまざまなドメインにわたる優れたゼロショット一般化性を備えたセマンティック セグメンテーションに革命をもたらし、アノテーション プロセスの合理化に大きな期待を寄せています。
ただし、SAM は、3D DL セグメンテーション モデルをトレーニングするためのアノテーションを厳選するためのクラウドソーシング設定ではまだ評価されていません。
この研究では、最先端の DL セグメンテーション モデルである 3D nnU-Net モデルをトレーニングするための「密」セグメンテーション マスクを生成するために、専門家以外からの「疎」アノテーションをクラウドソーシングするための SAM の可能性を探ります。
我々の結果は、SAM で生成されたアノテーションはグラウンド トゥルースのアノテーションと比較して高い平均 Dice スコアを示す一方で、SAM で生成されたアノテーションでトレーニングされた nnU-Net モデルは、グラウンド トゥルースのアノテーションでトレーニングされた nnU-Net モデルよりもパフォーマンスが著しく低いことを示しています ($p<0.001) $、すべて)。

要約(オリジナル)

Curating annotations for medical image segmentation is a labor-intensive and time-consuming task that requires domain expertise, resulting in ‘narrowly’ focused deep learning (DL) models with limited translational utility. Recently, foundation models like the Segment Anything Model (SAM) have revolutionized semantic segmentation with exceptional zero-shot generalizability across various domains, including medical imaging, and hold a lot of promise for streamlining the annotation process. However, SAM has yet to be evaluated in a crowd-sourced setting to curate annotations for training 3D DL segmentation models. In this work, we explore the potential of SAM for crowd-sourcing ‘sparse’ annotations from non-experts to generate ‘dense’ segmentation masks for training 3D nnU-Net models, a state-of-the-art DL segmentation model. Our results indicate that while SAM-generated annotations exhibit high mean Dice scores compared to ground-truth annotations, nnU-Net models trained on SAM-generated annotations perform significantly worse than nnU-Net models trained on ground-truth annotations ($p<0.001$, all).

arxiv情報

著者 Pranav Kulkarni,Adway Kanhere,Dharmam Savani,Andrew Chan,Devina Chatterjee,Paul H. Yi,Vishwa S. Parekh
発行日 2024-03-22 14:07:07+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG パーマリンク