SegVol: Universal and Interactive Volumetric Medical Image Segmentation

要約

正確な画像セグメンテーションにより、臨床研究に意味のある適切に構造化された情報が提供されます。
医用画像のセグメンテーションは目覚ましい進歩を遂げていますが、ユーザーの簡単な操作で広範囲の解剖学的カテゴリをセグメント化できる基礎的なセグメンテーション モデルはまだ存在していません。
この論文では、SegVol と呼ばれる、普遍的でインタラクティブなボリューム医療画像セグメンテーション モデルを提案します。
90,000 個のラベルなしコンピューター断層撮影 (CT) ボリュームと 6,000 個のラベル付き CT でトレーニングすることにより、この基礎モデルは、セマンティックおよび空間プロンプトを使用して 200 を超える解剖学的カテゴリーのセグメンテーションをサポートします。
広範な実験により、SegVol がマルチ セグメンテーション ベンチマークで最先端のパフォーマンスを大幅に上回っていることが検証されています。
特に、3 つの困難な病変データセットにおいて、私たちの方法は nnU-Net よりも約 20% 高い Dice スコアを達成しています。
モデルとデータは、https://github.com/BAAI-DCAI/SegVol で公開されています。

要約(オリジナル)

Precise image segmentation provides clinical study with meaningful and well-structured information. Despite the remarkable progress achieved in medical image segmentation, there is still an absence of foundation segmentation model that can segment a wide range of anatomical categories with easy user interaction. In this paper, we propose a universal and interactive volumetric medical image segmentation model, named SegVol. By training on 90k unlabeled Computed Tomography (CT) volumes and 6k labeled CTs, this foundation model supports the segmentation of over 200 anatomical categories using semantic and spatial prompts. Extensive experiments verify that SegVol outperforms the state of the art by a large margin on multiple segmentation benchmarks. Notably, on three challenging lesion datasets, our method achieves around 20% higher Dice score than nnU-Net. The model and data are publicly available at: https://github.com/BAAI-DCAI/SegVol.

arxiv情報

著者 Yuxin Du,Fan Bai,Tiejun Huang,Bo Zhao
発行日 2023-11-22 13:27:36+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク