Self-Supervised Learning with Masked Image Modeling for Teeth Numbering, Detection of Dental Restorations, and Instance Segmentation in Dental Panoramic Radiographs

要約

コンピュータ支援放射線情報レポートは、歯科治療を容易にし、手動のパノラマ X 線撮影の解釈にかかる時間を短縮するために、現在歯科診療で出現しています。
ただし、トレーニング用の歯科レントゲン写真の量は、特にディープラーニングの観点から非常に限られています。
この研究の目的は、SimMIM や UM-MAE などの最近の自己教師あり学習方法を利用して、モデルの効率を高め、限られた数の歯科レントゲン写真を理解することです。
Swin Transformer を使用して、歯の番号付け、歯科修復物の検出、およびインスタンス セグメンテーション タスクを実行します。
私たちの知る限りでは、これは自己教師あり学習法を歯科用パノラマ X 線写真の Swin Transformer に適用した最初の研究です。
私たちの結果は、SimMIM メソッドが、歯と歯科修復物の検出とインスタンスのセグメンテーションでそれぞれ 90.4% と 88.9% の最高のパフォーマンスを得て、ランダムな初期化ベースラインよりも平均精度を 13.4 と 12.8 向上させたことを示しています。
さらに、パノラマレントゲン写真の既存のデータセットを拡張および修正します。
コードとデータセットは https://github.com/AmaniHAlmalki/DentalMIM で入手できます。

要約(オリジナル)

The computer-assisted radiologic informative report is currently emerging in dental practice to facilitate dental care and reduce time consumption in manual panoramic radiographic interpretation. However, the amount of dental radiographs for training is very limited, particularly from the point of view of deep learning. This study aims to utilize recent self-supervised learning methods like SimMIM and UM-MAE to increase the model efficiency and understanding of the limited number of dental radiographs. We use the Swin Transformer for teeth numbering, detection of dental restorations, and instance segmentation tasks. To the best of our knowledge, this is the first study that applied self-supervised learning methods to Swin Transformer on dental panoramic radiographs. Our results show that the SimMIM method obtained the highest performance of 90.4% and 88.9% on detecting teeth and dental restorations and instance segmentation, respectively, increasing the average precision by 13.4 and 12.8 over the random initialization baseline. Moreover, we augment and correct the existing dataset of panoramic radiographs. The code and the dataset are available at https://github.com/AmaniHAlmalki/DentalMIM.

arxiv情報

著者 Amani Almalki,Longin Jan Latecki
発行日 2022-10-20 16:50:07+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク