Embarrassingly Simple Scribble Supervision for 3D Medical Segmentation

要約

従来、セグメンテーション アルゴリズムではトレーニングに高密度のアノテーションが必要であり、特に 3D 医用画像処理分野では多大なアノテーション作業が必要でした。
この課題に対する可能な解決策として落書き教師あり学習が浮上しており、大規模なデータセットを作成する際のアノテーション作業の削減が期待できます。
最近、落書きから最適化された学習方法が多数提案されていますが、これまでのところ、落書きアノテーションを有益な代替手段として位置づけることはできていません。
私たちはこの欠点を 2 つの主要な問題に関連付けます。1) 多くのメソッドが基礎となるセグメンテーション モデルと深く結び付いているため、この分野が進歩するにつれてより強力な最先端のモデルへの移行が妨げられるという複雑な性質、および 2)
より広範な医療領域にわたって一貫したパフォーマンスを検証するための体系的な評価が欠如しており、その結果、これらの手法を新しいセグメンテーション問題に適用する際に信頼性が欠如します。
これらの問題に対処するために、さまざまなモダリティで画像化されたさまざまな解剖学的構造と病状をカバーする 7 つのデータセットで構成される包括的な落書き監視ベンチマークを提案します。
さらに、部分損失、つまり注釈付きボクセルのみで計算される損失の系統的な使用を提案します。
ほとんどの既存の方法とは対照的に、これらの損失は最先端のセグメンテーション方法にシームレスに統合でき、元の損失の定式化を維持しながら落書きの注釈から学習できるようになります。
nnU-Net を使用した評価では、既存の手法のほとんどが一般化の欠如を抱えている一方で、提案されたアプローチが一貫して最先端のパフォーマンスを提供することが明らかになりました。
そのシンプルさのおかげで、私たちのアプローチは、落書きの監視の課題に対する、恥ずかしいほどシンプルだが効果的なソリューションを提供します。
ソース コードと広範な落書きベンチマーク スイートは、出版と同時に一般公開されます。

要約(オリジナル)

Traditionally, segmentation algorithms require dense annotations for training, demanding significant annotation efforts, particularly within the 3D medical imaging field. Scribble-supervised learning emerges as a possible solution to this challenge, promising a reduction in annotation efforts when creating large-scale datasets. Recently, a plethora of methods for optimized learning from scribbles have been proposed, but have so far failed to position scribble annotation as a beneficial alternative. We relate this shortcoming to two major issues: 1) the complex nature of many methods which deeply ties them to the underlying segmentation model, thus preventing a migration to more powerful state-of-the-art models as the field progresses and 2) the lack of a systematic evaluation to validate consistent performance across the broader medical domain, resulting in a lack of trust when applying these methods to new segmentation problems. To address these issues, we propose a comprehensive scribble supervision benchmark consisting of seven datasets covering a diverse set of anatomies and pathologies imaged with varying modalities. We furthermore propose the systematic use of partial losses, i.e. losses that are only computed on annotated voxels. Contrary to most existing methods, these losses can be seamlessly integrated into state-of-the-art segmentation methods, enabling them to learn from scribble annotations while preserving their original loss formulations. Our evaluation using nnU-Net reveals that while most existing methods suffer from a lack of generalization, the proposed approach consistently delivers state-of-the-art performance. Thanks to its simplicity, our approach presents an embarrassingly simple yet effective solution to the challenges of scribble supervision. Source code as well as our extensive scribble benchmarking suite will be made publicly available upon publication.

arxiv情報

著者 Karol Gotkowski,Carsten Lüth,Paul F. Jäger,Sebastian Ziegler,Lars Krämer,Stefan Denner,Shuhan Xiao,Nico Disch,Klaus H. Maier-Hein,Fabian Isensee
発行日 2024-03-19 15:41:16+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク