A Dataset for Deep Learning-based Bone Structure Analyses in Total Hip Arthroplasty

要約

全股関節形成術 (THA) は、整形外科で広く使用されている外科手術です。
THAでは、手術前にCT画像から骨構造を解析し、特に寛骨臼や大腿骨頭の構造を観察することが臨床的に重要です。
このような骨構造分析には、深層学習技術が有望ですが、学習には高品質のラベル付きデータが必要であり、データのラベル付けにはコストがかかります。
私たちはこの問題に対処し、深層学習指向のデータセットを生成するための効率的なデータ アノテーション パイプラインを提案します。
当社のパイプラインは、非学習ベースの骨抽出 (BE)、寛骨臼と大腿骨頭のセグメンテーション (AFS)、およびアクティブ ラーニング ベースのアノテーション改良 (AAR) で構成されています。
BE では、古典的なグラフカット アルゴリズムを使用します。
AFS については、1 次および 2 次の勾配正則化を使用した大腿骨頭境界位置特定、ラインベースの非最大抑制、および解剖学事前ベースの大腿骨頭抽出を含む、改良されたアルゴリズムを提案します。
AAR では、トレーニングされたディープ モデルを利用して、アルゴリズムで生成された擬似ラベルを改良します。元の擬似ラベルとディープ モデルの予測の間の不一致に基づいて不確実性を測定し、次に、質問すべき最大の不確実性を持つサンプルを見つけます。
手動ラベル付け用。
提案されたパイプラインを使用して、300 を超える臨床的で多様な CT スキャンから大規模な骨構造解析データセットを構築します。
データのテストセットに対して慎重に手動でラベル付けを行っています。
次に、データのトレーニング セットとテスト セットを使用して、医療画像セグメンテーションの複数の最先端の深層学習ベースの方法をベンチマークします。
広範な実験結果により、提案されたデータ アノテーション パイプラインの有効性が検証されています。
データセット、関連コードおよびモデルは、https://github.com/hitachinsk/THA で公開されます。

要約(オリジナル)

Total hip arthroplasty (THA) is a widely used surgical procedure in orthopedics. For THA, it is of clinical significance to analyze the bone structure from the CT images, especially to observe the structure of the acetabulum and femoral head, before the surgical procedure. For such bone structure analyses, deep learning technologies are promising but require high-quality labeled data for the learning, while the data labeling is costly. We address this issue and propose an efficient data annotation pipeline for producing a deep learning-oriented dataset. Our pipeline consists of non-learning-based bone extraction (BE) and acetabulum and femoral head segmentation (AFS) and active-learning-based annotation refinement (AAR). For BE we use the classic graph-cut algorithm. For AFS we propose an improved algorithm, including femoral head boundary localization using first-order and second-order gradient regularization, line-based non-maximum suppression, and anatomy prior-based femoral head extraction. For AAR, we refine the algorithm-produced pseudo labels with the help of trained deep models: we measure the uncertainty based on the disagreement between the original pseudo labels and the deep model predictions, and then find out the samples with the largest uncertainty to ask for manual labeling. Using the proposed pipeline, we construct a large-scale bone structure analyses dataset from more than 300 clinical and diverse CT scans. We perform careful manual labeling for the test set of our data. We then benchmark multiple state-of-the art deep learning-based methods of medical image segmentation using the training and test sets of our data. The extensive experimental results validate the efficacy of the proposed data annotation pipeline. The dataset, related codes and models will be publicly available at https://github.com/hitachinsk/THA.

arxiv情報

著者 Kaidong Zhang,Ziyang Gan,Dong Liu,Xifu Shang
発行日 2023-06-07 16:28:53+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, eess.IV パーマリンク