Aligning Human Motion Generation with Human Perceptions

要約

人間のモーション生成は、幅広いアプリケーションを備えた重要なタスクです。
生成された動きで高いリアリズムを達成するには、自然性、滑らかさ、妥当性が必要です。
現場での急速な進歩にもかかわらず、現在の世代の方法は、しばしばこれらの目標に達していません。
さらに、既存の評価メトリックは、通常、地上真実ベースのエラー、単純なヒューリスティック、または流通距離に依存していますが、これは運動品質の人間の認識とうまく調和していません。
この作業では、人間の知覚的好みを捉える大規模な人間の知覚評価データセット、MotionPerecte、および人間の動き批評家モデルであるMotionCriticを導入することにより、このギャップを埋めるためのデータ駆動型のアプローチを提案します。
批評家モデルは、モーションの品質を評価するためのより正確なメトリックを提供し、生成品質を向上させるためにモーション生成パイプラインに容易に統合できます。
広範な実験は、人間の認識と整合することにより、生成された人間の動きの質を評価し、改善することの両方において、私たちのアプローチの有効性を示しています。
コードとデータは、https://motioncritic.github.io/で公開されています。

要約(オリジナル)

Human motion generation is a critical task with a wide range of applications. Achieving high realism in generated motions requires naturalness, smoothness, and plausibility. Despite rapid advancements in the field, current generation methods often fall short of these goals. Furthermore, existing evaluation metrics typically rely on ground-truth-based errors, simple heuristics, or distribution distances, which do not align well with human perceptions of motion quality. In this work, we propose a data-driven approach to bridge this gap by introducing a large-scale human perceptual evaluation dataset, MotionPercept, and a human motion critic model, MotionCritic, that capture human perceptual preferences. Our critic model offers a more accurate metric for assessing motion quality and could be readily integrated into the motion generation pipeline to enhance generation quality. Extensive experiments demonstrate the effectiveness of our approach in both evaluating and improving the quality of generated human motions by aligning with human perceptions. Code and data are publicly available at https://motioncritic.github.io/.

arxiv情報

著者 Haoru Wang,Wentao Zhu,Luyi Miao,Yishu Xu,Feng Gao,Qi Tian,Yizhou Wang
発行日 2025-01-23 14:50:20+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.GR パーマリンク