要約
個別に取得した 3D スキャンの時系列を単一の一貫した変形形状に再構成する新しい方法である Canonical Consolidation Fields (CanFields) を紹介します。
この 4D 表現により、空間と時間の両方にわたって継続的な改良が可能になります。
ジオメトリを過剰に平滑化したり、位相的および幾何学的アーティファクトを生成したりする従来の方法とは異なり、CanFields は 2 つの幾何学的事前分布を組み込むことにより、教師なしの方法でジオメトリと変形を効果的に学習します。
まず、入力を調整して信頼スコアを割り当て、正規形状とその変形の学習のバランスをとる動的統合モジュールを導入します。
2 番目に、低周波数の速度フィールドを使用して、高周波数のバイアスを通じて正準形状の微細なディテールを維持しながら変形をガイドします。
さまざまな生スキャンで CanFields の堅牢性と精度を検証し、欠落領域、まばらなフレーム、ノイズがあっても優れたパフォーマンスを実証します。
コードは補足資料で入手でき、受理され次第公開されます。
要約(オリジナル)
We introduce Canonical Consolidation Fields (CanFields), a new method for reconstructing a time series of independently captured 3D scans into a single, coherent deforming shape. This 4D representation enables continuous refinement across both space and time. Unlike prior methods that often over-smooth the geometry or produce topological and geometric artifacts, CanFields effectively learns geometry and deformation in an unsupervised way by incorporating two geometric priors. First, we introduce a dynamic consolidator module that adjusts the input and assigns confidence scores, balancing the learning of the canonical shape and its deformations. Second, we use low-frequency velocity fields to guide deformation while preserving fine details in canonical shapes through high-frequency bias. We validate the robustness and accuracy of CanFields on diverse raw scans, demonstrating its superior performance even with missing regions, sparse frames, and noise. Code is available in the supplementary materials and will be released publicly upon acceptance.
arxiv情報
著者 | Miaowei Wang,Changjian Li,Amir Vaxman |
発行日 | 2024-11-27 18:14:05+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google