要約
人間のダイナミクスをマッピングすることは、人間が居住する環境でロボットが共存できるようになるため、ロボットにとって重要なスキルです。
ただし、人々のダイナミクスのモデルを学習するには、環境内で移動する大量の人々を観察する必要があり、時間のかかるプロセスです。
さらに、ダイナミクスをマッピングするアプローチでは、学習したモデルを環境間で転送することはできません。各モデルは、それが組み込まれている環境のダイナミクスを記述することしかできません。しかし、人々の動きに対する建築幾何学の影響を利用して、人々の動きを予測することができます。
最近の研究では、占有率からダイナミクスのマップを学習することが検討されています。
しかし、これまでのところ、軌道に基づくアプローチと幾何学に基づくアプローチは組み合わされていません。
この研究では、環境幾何学に関する知識と人間の軌跡からの観察を組み合わせることができる、人々のダイナミクスを学習するための新しいベイジアン アプローチを提案します。
占有ベースの深い事前分布を使用して、歩行者の観察を必要とせずに初期遷移モデルを構築します。
ベイジアン推論を使用して観測が利用可能になると、モデルが更新されます。
データ効率を向上させ、実際の大規模環境全体にわたって一般化できるモデルの能力を実証します。これはダイナミクス マップでは前例のないことです。
要約(オリジナル)
Mapping people dynamics is a crucial skill for robots, because it enables them to coexist in human-inhabited environments. However, learning a model of people dynamics is a time consuming process which requires observation of large amount of people moving in an environment. Moreover, approaches for mapping dynamics are unable to transfer the learned models across environments: each model is only able to describe the dynamics of the environment it has been built in. However, the impact of architectural geometry on people’s movement can be used to anticipate their patterns of dynamics, and recent work has looked into learning maps of dynamics from occupancy. So far however, approaches based on trajectories and those based on geometry have not been combined. In this work we propose a novel Bayesian approach to learn people dynamics able to combine knowledge about the environment geometry with observations from human trajectories. An occupancy-based deep prior is used to build an initial transition model without requiring any observations of pedestrian; the model is then updated when observations become available using Bayesian inference. We demonstrate the ability of our model to increase data efficiency and to generalize across real large-scale environments, which is unprecedented for maps of dynamics.
arxiv情報
著者 | Francesco Verdoja,Tomasz Piotr Kucner,Ville Kyrki |
発行日 | 2024-04-02 13:49:07+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google