要約
潜在変数モデルは、高次元データから低次元マニホールドを学習するための強力なツールです。
ただし、ユニットノームベクトルや対称正の正確なマトリックスなどの制約されたデータを扱う場合、既存のアプローチは根本的な幾何学的制約を無視するか、潜在空間で意味のあるメトリックを提供できません。
これらの制限に対処するために、このような幾何学的データのリーマニアの潜在表現を学ぶことを提案します。
そのために、データジオメトリを明示的に説明するラップされたガウスプロセス潜在変数モデルによって誘導されるプルバックメトリックを推定します。
これにより、潜在空間での距離と最短経路の幾何学的概念を定義することができ、モデルが確率質量のみをデータマニホールドに割り当てることができるようにします。
これにより、以前の作業が一般化され、ロボットモーション合成や脳コネクタムの分析など、さまざまなドメインの複雑なタスクを処理できます。
要約(オリジナル)
Latent variable models are powerful tools for learning low-dimensional manifolds from high-dimensional data. However, when dealing with constrained data such as unit-norm vectors or symmetric positive-definite matrices, existing approaches ignore the underlying geometric constraints or fail to provide meaningful metrics in the latent space. To address these limitations, we propose to learn Riemannian latent representations of such geometric data. To do so, we estimate the pullback metric induced by a Wrapped Gaussian Process Latent Variable Model, which explicitly accounts for the data geometry. This enables us to define geometry-aware notions of distance and shortest paths in the latent space, while ensuring that our model only assigns probability mass to the data manifold. This generalizes previous work and allows us to handle complex tasks in various domains, including robot motion synthesis and analysis of brain connectomes.
arxiv情報
著者 | Leonel Rozo,Miguel González-Duque,Noémie Jaquier,Søren Hauberg |
発行日 | 2025-03-07 16:08:53+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google