要約
この研究では、nnU-Net ベースの擬似ラベリングと解剖学に基づいた擬似ラベルの改良を含む逐次プロセスを使用して、自動解剖学セグメンテーション データセットを生成する方法を紹介します。
さまざまな断片化された知識ベースを組み合わせることで、専門家が承認した包括的な解剖学的範囲を提供する 533 ボリュームの 142 ドルのボクセル レベルのラベルが付いた全身 CT スキャンのデータセットを生成します。
私たちが提案する手順は、ラベル集約段階での手動のアノテーションに依存しません。
私たちは、データセットを承認した人間の専門家による評価、トレーニング データセットを使用せずに 85% のサイコロ スコアを達成する BTCV データセットのディープ ラーニング有用性ベンチマーク、および医学的妥当性チェックの 3 つの補完的なチェックを使用して、その妥当性と有用性を検証します。
この評価手順は、スケーラブルな自動チェックと労働集約的な高品質の専門家によるチェックを組み合わせたものです。
データセットに加えて、CT データ上で 142 ドルの解剖学的構造を予測できる、トレーニング済みの統合解剖学的セグメンテーション モデルをリリースします。
要約(オリジナル)
In this study, we present a method for generating automated anatomy segmentation datasets using a sequential process that involves nnU-Net-based pseudo-labeling and anatomy-guided pseudo-label refinement. By combining various fragmented knowledge bases, we generate a dataset of whole-body CT scans with $142$ voxel-level labels for 533 volumes providing comprehensive anatomical coverage which experts have approved. Our proposed procedure does not rely on manual annotation during the label aggregation stage. We examine its plausibility and usefulness using three complementary checks: Human expert evaluation which approved the dataset, a Deep Learning usefulness benchmark on the BTCV dataset in which we achieve 85% dice score without using its training dataset, and medical validity checks. This evaluation procedure combines scalable automated checks with labor-intensive high-quality expert checks. Besides the dataset, we release our trained unified anatomical segmentation model capable of predicting $142$ anatomical structures on CT data.
arxiv情報
著者 | Alexander Jaus,Constantin Seibold,Kelsey Hermann,Alexandra Walter,Kristina Giske,Johannes Haubold,Jens Kleesiek,Rainer Stiefelhagen |
発行日 | 2023-07-25 09:48:13+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google