Aligning Human Motion Generation with Human Perceptions

要約

人間の動きの生成は、幅広い用途に関わる重要なタスクです。
生成されたモーションで高いリアリズムを実現するには、自然さ、滑らかさ、妥当性が必要です。
この分野の急速な進歩にもかかわらず、現在の発電方法ではこれらの目標を達成できないことがよくあります。
さらに、既存の評価指標は通常、グラウンドトゥルースに基づく誤差、単純なヒューリスティック、または分布距離に依存しており、これらは人間のモーション品質の認識とうまく一致しません。
この研究では、人間の知覚の好みを捕捉する大規模な人間の知覚評価データセット MotionPercept と人間の動作批評家モデル MotionCritic を導入することで、このギャップを埋めるためのデータ駆動型アプローチを提案します。
私たちの批評家モデルは、モーション品質を評価するためのより正確な指標を提供し、モーション生成パイプラインに簡単に統合して生成品質を向上させることができます。
広範な実験により、人間の知覚に合わせて生成された人間の動作の品質を評価および改善するという私たちのアプローチの有効性が実証されています。
コードとデータは https://motioncritic.github.io/ で公開されています。

要約(オリジナル)

Human motion generation is a critical task with a wide range of applications. Achieving high realism in generated motions requires naturalness, smoothness, and plausibility. Despite rapid advancements in the field, current generation methods often fall short of these goals. Furthermore, existing evaluation metrics typically rely on ground-truth-based errors, simple heuristics, or distribution distances, which do not align well with human perceptions of motion quality. In this work, we propose a data-driven approach to bridge this gap by introducing a large-scale human perceptual evaluation dataset, MotionPercept, and a human motion critic model, MotionCritic, that capture human perceptual preferences. Our critic model offers a more accurate metric for assessing motion quality and could be readily integrated into the motion generation pipeline to enhance generation quality. Extensive experiments demonstrate the effectiveness of our approach in both evaluating and improving the quality of generated human motions by aligning with human perceptions. Code and data are publicly available at https://motioncritic.github.io/.

arxiv情報

著者 Haoru Wang,Wentao Zhu,Luyi Miao,Yishu Xu,Feng Gao,Qi Tian,Yizhou Wang
発行日 2024-07-02 14:01:59+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.GR パーマリンク