要約
Segment Anything Model (SAM) は、ポイントや境界ボックスなどの入力プロンプトを使用した自然な画像セグメンテーションで優れた結果を達成しました。
その成功の主な要因は、大量のラベル付きトレーニング データによるものです。
ただし、SAM を医療画像のセグメンテーションに直接適用すると、SAM には医療知識が不足しており、トレーニングに医療画像を使用しないため、十分なパフォーマンスを発揮できません。
医療知識を SAM に組み込むために、多数のパブリックおよびプライベート データセットに基づいて構築された 2D 医療画像の大規模セグメンテーション データセットである SA-Med2D-20M を導入します。
これは 460 万枚の 2D 医療画像と 1,970 万枚の対応するマスクで構成されており、ほぼ全身をカバーしており、多様性が顕著です。
このペーパーでは、SA-Med2D-20M で収集されたすべてのデータセットについて説明し、これらのデータセットの処理方法について詳しく説明します。
さらに、SA-Med2D-20M の包括的な統計は、データセットの有効活用を促進するために提示されており、研究者が医療視覚基盤モデルを構築したり、そのモデルを下流の医療アプリケーションに適用したりするのに役立ちます。
SA-Med2D-20M の大規模さと多様性を活用して、診断、医用画像解析、知識共有、教育を強化するための医療用人工知能の開発に活用できることを期待しています。
再配布ライセンス付きのデータは、https://github.com/OpenGVLab/SAM-Med2D で公開されています。
要約(オリジナル)
Segment Anything Model (SAM) has achieved impressive results for natural image segmentation with input prompts such as points and bounding boxes. Its success largely owes to massive labeled training data. However, directly applying SAM to medical image segmentation cannot perform well because SAM lacks medical knowledge — it does not use medical images for training. To incorporate medical knowledge into SAM, we introduce SA-Med2D-20M, a large-scale segmentation dataset of 2D medical images built upon numerous public and private datasets. It consists of 4.6 million 2D medical images and 19.7 million corresponding masks, covering almost the whole body and showing significant diversity. This paper describes all the datasets collected in SA-Med2D-20M and details how to process these datasets. Furthermore, comprehensive statistics of SA-Med2D-20M are presented to facilitate the better use of our dataset, which can help the researchers build medical vision foundation models or apply their models to downstream medical applications. We hope that the large scale and diversity of SA-Med2D-20M can be leveraged to develop medical artificial intelligence for enhancing diagnosis, medical image analysis, knowledge sharing, and education. The data with the redistribution license is publicly available at https://github.com/OpenGVLab/SAM-Med2D.
arxiv情報
著者 | Jin Ye,Junlong Cheng,Jianpin Chen,Zhongying Deng,Tianbin Li,Haoyu Wang,Yanzhou Su,Ziyan Huang,Jilong Chen,Lei Jiang,Hui Sun,Min Zhu,Shaoting Zhang,Junjun He,Yu Qiao |
発行日 | 2023-11-20 17:59:03+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google