要約
形状空間におけるデータ多様体のパラメータ化は、リーマン幾何学の豊富なツールボックスを使用して計算できます。
ただし、これには多くの場合、高い計算コストが伴うため、効率的なニューラル ネットワークの近似を学習できるかどうかという疑問が生じます。
これが、特別な製品構造を持つ形状空間、つまり低次元多様体の直和によって滑らかに近似できる形状空間で実際に可能であることを示します。
私たちが提案するアーキテクチャは、低次元の因子とその後の組み合わせの近似を個別に学習することにより、この構造を活用します。
このアプローチを一般的なフレームワークとして開発した後、それを三角形の曲面の形状空間に適用します。
ここでは、データ多様体の典型的な例が、連結モデルのデータセットを通じて示され、たとえば疎主測地線解析 (SPGA) によって因数分解できます。
SPGAを介してデータから抽出された多様体だけでなく、合成データの実験により、提案されたアプローチの有効性を実証します。
要約(オリジナル)
Parametrizations of data manifolds in shape spaces can be computed using the rich toolbox of Riemannian geometry. This, however, often comes with high computational costs, which raises the question if one can learn an efficient neural network approximation. We show that this is indeed possible for shape spaces with a special product structure, namely those smoothly approximable by a direct sum of low-dimensional manifolds. Our proposed architecture leverages this structure by separately learning approximations for the low-dimensional factors and a subsequent combination. After developing the approach as a general framework, we apply it to a shape space of triangular surfaces. Here, typical examples of data manifolds are given through datasets of articulated models and can be factorized, for example, by a Sparse Principal Geodesic Analysis (SPGA). We demonstrate the effectiveness of our proposed approach with experiments on synthetic data as well as manifolds extracted from data via SPGA.
arxiv情報
著者 | Josua Sassen,Klaus Hildebrandt,Martin Rumpf,Benedikt Wirth |
発行日 | 2023-02-28 15:31:23+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google