要約
多くのグラフィックス アプリケーションでは、デジタル ヒューマンのリアルなモーションを生成するのに時間がかかります。
データ駆動型のモーション合成アプローチは、深い生成モデルを通じて近年着実な進歩を遂げています。
これらの結果は、高品質のモーションを提供しますが、通常、モーション スタイルの多様性に悩まされます。
初めて、ノイズ除去拡散確率モデル (DDPM) を使用してスタイル付きの人間の動きを合成するフレームワークを提案し、2 つのタスクを 1 つのパイプラインに統合して、従来の動き合成方法と比較してスタイルの多様性を高めます。
実験結果は、私たちのシステムが高品質で多様な歩行運動を生成できることを示しています。
要約(オリジナル)
Generating realistic motions for digital humans is time-consuming for many graphics applications. Data-driven motion synthesis approaches have seen solid progress in recent years through deep generative models. These results offer high-quality motions but typically suffer in motion style diversity. For the first time, we propose a framework using the denoising diffusion probabilistic model (DDPM) to synthesize styled human motions, integrating two tasks into one pipeline with increased style diversity compared with traditional motion synthesis methods. Experimental results show that our system can generate high-quality and diverse walking motions.
arxiv情報
著者 | Edmund J. C. Findlay,Haozheng Zhang,Ziyi Chang,Hubert P. H. Shum |
発行日 | 2022-09-29 14:45:33+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google