Are foundation models efficient for medical image segmentation?

要約

ファウンデーションモデルの人気が急上昇しています。
Segment Anything モデル (SAM) は、広範囲のオブジェクトをセグメント化する機能を主張しますが、前例のない規模での教師ありトレーニングが必要でした。
私たちは、100 回の心臓超音波検査に対する 25 回の測定について、SAM のパフォーマンス (臨床グラウンド トゥルースと比較) とリソース (ラベル付け時間、計算) をモダリティ固有のラベルフリーの自己教師あり学習 (SSL) 手法と比較しました。
SAM のパフォーマンスは低く、ラベル付けとコンピューティング リソースが大幅に多く必要となり、SSL よりも効率が悪いことがわかりました。

要約(オリジナル)

Foundation models are experiencing a surge in popularity. The Segment Anything model (SAM) asserts an ability to segment a wide spectrum of objects but required supervised training at unprecedented scale. We compared SAM’s performance (against clinical ground truth) and resources (labeling time, compute) to a modality-specific, label-free self-supervised learning (SSL) method on 25 measurements for 100 cardiac ultrasounds. SAM performed poorly and required significantly more labeling and computing resources, demonstrating worse efficiency than SSL.

arxiv情報

著者 Danielle Ferreira,Rima Arnaout
発行日 2023-11-08 17:33:09+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, eess.IV パーマリンク