要約
一連の潜在的なモーション プリミティブで完全なモーションをエンコードする人体モーションの新しい表現を提案します。
最近、タスクジェネリックモーションプライアが導入され、単一の潜在コードに基づく人間の動きの一貫した表現が提案され、多くのタスクで有望な結果が得られました。
これらの方法をさまざまな期間とフレームレートでより長いモーションに拡張することは、1 つの潜在的なコードが長期的な変動性をエンコードするのに非効率的であることが証明されているため、ほとんど簡単です。
私たちの仮説は、長い動きは、単一のブロックよりも一連のアクションとしてよりよく表現されるというものです。
シーケンスからシーケンスへのアーキテクチャを活用することにより、モーションの時間的セグメンテーションとモーション セグメントの事前学習を同時に学習するモデルを提案します。
時間分解能とモーション持続時間に柔軟性を持たせるために、私たちの表現は時間的に連続しており、任意のタイムスタンプに対してクエリを実行できます。
私たちの方法が、まばらなポイントクラウドでの時空間完了タスクで、最先端のモーションプライアを大幅に改善することを実験的に示しています。
コードは公開時に公開されます。
要約(オリジナル)
We propose a new representation of human body motion which encodes a full motion in a sequence of latent motion primitives. Recently, task generic motion priors have been introduced and propose a coherent representation of human motion based on a single latent code, with encouraging results for many tasks. Extending these methods to longer motion with various duration and framerate is all but straightforward as one latent code proves inefficient to encode longer term variability. Our hypothesis is that long motions are better represented as a succession of actions than in a single block. By leveraging a sequence-to-sequence architecture, we propose a model that simultaneously learns a temporal segmentation of motion and a prior on the motion segments. To provide flexibility with temporal resolution and motion duration, our representation is continuous in time and can be queried for any timestamp. We show experimentally that our method leads to a significant improvement over state-of-the-art motion priors on a spatio-temporal completion task on sparse pointclouds. Code will be made available upon publication.
arxiv情報
著者 | Mathieu Marsot,Stefanie Wuhrer,Jean-Sebastien Franco,Anne Hélène Olivier |
発行日 | 2022-09-01 15:23:10+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google