PACER+: On-Demand Pedestrian Animation Controller in Driving Scenarios

要約

私たちは、運転シナリオの歩行者シミュレーションにおけるコンテンツの多様性と制御性の課題に取り組みます。
最近の歩行者アニメーション フレームワークには、主に軌跡 [46] または参照ビデオ [57] のコンテンツのいずれかに焦点を当てているという重大な制限があり、その結果、そのようなシナリオ内での人間の動きの潜在的な多様性が見落とされています。
この制限により、より幅広いバリエーションと現実的な動きを示す歩行者の行動を生成する能力が制限されるため、ドライビング シミュレーション システムの他のコンポーネントに豊富なモーション コンテンツ (自動運転車が応答する必要がある突然変化する動きなど) を提供するためのその使用が制限されます。

私たちのアプローチでは、与えられた軌道をたどるだけでなく、生成された人間の動作など、さまざまなソースから取得された多様な人間の動作を提示することで、限界を超えようとします。
私たちのフレームワークの基本的な貢献は、モーション追跡タスクと軌道追跡を組み合わせることです。これにより、単一のポリシーによって指定された軌道を同時に追跡しながら、特定の運動部分 (例: 上半身) の追跡が可能になります。
このようにして、特定のシナリオ内でシミュレートされる人間の動作の多様性と、言語ベースの制御を含むコンテンツの制御可能性の両方が大幅に強化されます。
私たちのフレームワークは人間の幅広い動作の生成を容易にし、運転シナリオに対する歩行者シミュレーションのリアリズムと適応性の向上に貢献します。
詳細については、プロジェクト ページ https://wangjingbo1219.github.io/papers/CVPR2024_PACER_PLUS/PACERPLUSPage.html をご覧ください。

要約(オリジナル)

We address the challenge of content diversity and controllability in pedestrian simulation for driving scenarios. Recent pedestrian animation frameworks have a significant limitation wherein they primarily focus on either following trajectory [46] or the content of the reference video [57], consequently overlooking the potential diversity of human motion within such scenarios. This limitation restricts the ability to generate pedestrian behaviors that exhibit a wider range of variations and realistic motions and therefore restricts its usage to provide rich motion content for other components in the driving simulation system, e.g., suddenly changed motion to which the autonomous vehicle should respond. In our approach, we strive to surpass the limitation by showcasing diverse human motions obtained from various sources, such as generated human motions, in addition to following the given trajectory. The fundamental contribution of our framework lies in combining the motion tracking task with trajectory following, which enables the tracking of specific motion parts (e.g., upper body) while simultaneously following the given trajectory by a single policy. This way, we significantly enhance both the diversity of simulated human motion within the given scenario and the controllability of the content, including language-based control. Our framework facilitates the generation of a wide range of human motions, contributing to greater realism and adaptability in pedestrian simulations for driving scenarios. More information is on our project page https://wangjingbo1219.github.io/papers/CVPR2024_PACER_PLUS/PACERPLUSPage.html .

arxiv情報

著者 Jingbo Wang,Zhengyi Luo,Ye Yuan,Yixuan Li,Bo Dai
発行日 2024-04-30 17:15:42+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク