Differentiable Collision-Supervised Tooth Arrangement Network with a Decoupling Perspective

要約

歯の配置は、デジタル矯正計画プロセスにおいて重要なステップです。
既存の学習ベースの方法は、隠れた歯の特徴を使用して歯の動きを直接回帰し、ターゲットの姿勢の知覚と動きの回帰を組み合わせます。
3 次元の変形に対する認識が低下する可能性があります。
また、予測された歯列の歯間の重複や隙間の可能性も無視されますが、これは一般に受け入れられません。
したがって、我々は、予測タスクと特徴モデリングを分離する、微分可能な衝突監視歯列ネットワークである DTAN を提案します。
DTAN は、最初に最終的な歯のポーズの隠れた特徴を予測し、次にそれらを使用して、最初の歯とターゲットの歯の間の動きの回帰を支援することで、歯の配置タスクを分離します。
隠れたフィーチャをよりよく学習するために、DTAN は歯で隠されたフィーチャを幾何学的フィーチャと位置フィーチャに分離し、フィーチャの一貫性制約によってさらに管理されます。
さらに、歯間の関連するジェスチャを制限するために、点群データの新しい微分可能な衝突損失関数を提案します。これは、他の 3D 点群タスクに簡単に拡張できます。
私たちは、結果を制御可能にするために、C-DTAN と呼ばれるアーチ幅ガイド歯列ネットワークを提案します。
3 つの異なる歯列データセットを構築し、既存の手法と比較して精度と速度の大幅なパフォーマンス向上を実現します。

要約(オリジナル)

Tooth arrangement is an essential step in the digital orthodontic planning process. Existing learning-based methods use hidden teeth features to directly regress teeth motions, which couples target pose perception and motion regression. It could lead to poor perceptions of three-dimensional transformation. They also ignore the possible overlaps or gaps between teeth of predicted dentition, which is generally unacceptable. Therefore, we propose DTAN, a differentiable collision-supervised tooth arrangement network, decoupling predicting tasks and feature modeling. DTAN decouples the tooth arrangement task by first predicting the hidden features of the final teeth poses and then using them to assist in regressing the motions between the beginning and target teeth. To learn the hidden features better, DTAN also decouples the teeth-hidden features into geometric and positional features, which are further supervised by feature consistency constraints. Furthermore, we propose a novel differentiable collision loss function for point cloud data to constrain the related gestures between teeth, which can be easily extended to other 3D point cloud tasks. We propose an arch-width guided tooth arrangement network, named C-DTAN, to make the results controllable. We construct three different tooth arrangement datasets and achieve drastically improved performance on accuracy and speed compared with existing methods.

arxiv情報

著者 Zhihui He,Chengyuan Wang,Shidong Yang,Li Chen,Yanheng Zhou,Shuo Wang
発行日 2024-09-18 12:52:54+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク