CTooth: A Fully Annotated 3D Dataset and Benchmark for Tooth Volume Segmentation on Cone Beam Computed Tomography Images

要約

3D歯のセグメンテーションは、コンピューターを利用した歯科診断と治療の前提条件です。
ただし、すべての歯の領域を手動でセグメント化することは主観的で時間がかかります。
最近、深層学習ベースのセグメンテーション手法は、説得力のある結果を生み出し、手動の注釈の労力を削減しますが、トレーニングには大量のグラウンドトゥルースが必要です。
私たちの知る限り、3Dセグメンテーション研究に利用できる歯のデータはほとんどありません。
この論文では、完全に注釈が付けられたコーンビームコンピュータ断層撮影データセットCToothを歯の金本位制で確立します。
このデータセットには、経験豊富なX線撮影通訳者によって注釈が付けられた細かい歯のラベルが付いた22巻(7363スライス)が含まれています。
比較的均一なデータサンプリング分布を確保するために、欠落した歯や歯の修復などのデータ分散がCToothに含まれています。
このデータセットでは、いくつかの最先端のセグメンテーション手法が評価されています。
その後、歯のボリュームをセグメント化するために、一連の3D注意ベースのUnetバリアントをさらに要約して適用します。
この作業は、歯のボリュームセグメンテーションタスクの新しいベンチマークを提供します。
実験的証拠は、3D UNet構造の注意モジュールが歯の領域の応答を高め、バックグラウンドとノイズの影響を抑制することを証明しています。
最高のパフォーマンスは、SKNetアテンションモジュールを備えた3D Unetによって達成され、それぞれ88.04 \%Diceと78.71 \%IOUです。
注意ベースのUnetフレームワークは、CToothデータセットの他の最先端の方法よりも優れています。
コードベースとデータセットがリリースされます。

要約(オリジナル)

3D tooth segmentation is a prerequisite for computer-aided dental diagnosis and treatment. However, segmenting all tooth regions manually is subjective and time-consuming. Recently, deep learning-based segmentation methods produce convincing results and reduce manual annotation efforts, but it requires a large quantity of ground truth for training. To our knowledge, there are few tooth data available for the 3D segmentation study. In this paper, we establish a fully annotated cone beam computed tomography dataset CTooth with tooth gold standard. This dataset contains 22 volumes (7363 slices) with fine tooth labels annotated by experienced radiographic interpreters. To ensure a relative even data sampling distribution, data variance is included in the CTooth including missing teeth and dental restoration. Several state-of-the-art segmentation methods are evaluated on this dataset. Afterwards, we further summarise and apply a series of 3D attention-based Unet variants for segmenting tooth volumes. This work provides a new benchmark for the tooth volume segmentation task. Experimental evidence proves that attention modules of the 3D UNet structure boost responses in tooth areas and inhibit the influence of background and noise. The best performance is achieved by 3D Unet with SKNet attention module, of 88.04 \% Dice and 78.71 \% IOU, respectively. The attention-based Unet framework outperforms other state-of-the-art methods on the CTooth dataset. The codebase and dataset are released.

arxiv情報

著者 Weiwei Cui,Yaqi Wang,Qianni Zhang,Huiyu Zhou,Dan Song,Xingyong Zuo,Gangyong Jia,Liaoyuan Zeng
発行日 2022-06-17 13:48:35+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV パーマリンク