Accuracy of Segment-Anything Model (SAM) in medical image segmentation tasks

要約

タイトル:医療画像セグメンテーションタスクにおけるSegment-Anything Model (SAM)の正確性

要約:
– Segment-Anything Model(SAM)は、画像のセグメンテーションに使用される基本的なモデルとして紹介されました。
– SAMは、11百万の自然画像から1十億のマスクを使用して訓練されました。
– SAMは、マスク、ボックス、ポイントなどの様々なプロンプトを使用して、画像のゼロショットセグメンテーションが可能です。
– この論文では、以下の2点を探求しました。
1. SAMの正確性(12の公開医療画像セグメンテーションデータセットを使用)
2. コンピュータビジョンの基礎的なセグメンテーションモデルであるSAMが、医療画像セグメンテーションに有望な研究方向を提供できるかどうか。
– SAMを医療画像に再訓練することなく使用すると、U-Netや他の医療画像に訓練された深層学習モデルほど正確には機能しないことがわかりました。

要約(オリジナル)

The segment-anything model (SAM), was introduced as a fundamental model for segmenting images. It was trained using over 1 billion masks from 11 million natural images. The model can perform zero-shot segmentation of images by using various prompts such as masks, boxes, and points. In this report, we explored (1) the accuracy of SAM on 12 public medical image segmentation datasets which cover various organs (brain, breast, chest, lung, skin, liver, bowel, pancreas, and prostate), image modalities (2D X-ray, histology, endoscropy, and 3D MRI and CT), and health conditions (normal, lesioned). (2) if the computer vision foundational segmentation model SAM can provide promising research directions for medical image segmentation. We found that SAM without re-training on medical images does not perform as accurately as U-Net or other deep learning models trained on medical images.

arxiv情報

著者 Sheng He,Rina Bao,Jingpeng Li,P. Ellen Grant,Yangming Ou
発行日 2023-04-27 22:41:34+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CV, eess.IV パーマリンク