Learning State-Space Models for Mapping Spatial Motion Patterns

要約

自律型ロボットがうまく動作するためには、周囲の環境をマッピングすることが不可欠である。これまで幾何学的構造や静的物体のマッピングに焦点を当てた研究が数多く行われてきたが、環境は動的物体の動きにも影響される。空間的な動きのパターンに関する情報を取り入れることで、移動ロボットが人口密集地でナビゲートし、うまく動作できるようになる。本論文では、空間運動パターンの地図表現と、それらがある場所で時間とともにどのように変化するかを学習する、深い状態空間モデルを提案する。我々の手法を評価するために、2つの異なるデータセットを用いる。1つは特定の運動パターンを用いて生成したデータセット、もう1つは現実世界の歩行者データである。学習能力、マッピング品質、下流タスクへの適用を評価することで、我々のモデルの性能を検証する。その結果、我々のモデルが対応する運動パターンを効果的に学習でき、ロボット応用タスクに適用できる可能性があることが実証された。

要約(オリジナル)

Mapping the surrounding environment is essential for the successful operation of autonomous robots. While extensive research has focused on mapping geometric structures and static objects, the environment is also influenced by the movement of dynamic objects. Incorporating information about spatial motion patterns can allow mobile robots to navigate and operate successfully in populated areas. In this paper, we propose a deep state-space model that learns the map representations of spatial motion patterns and how they change over time at a certain place. To evaluate our methods, we use two different datasets: one generated dataset with specific motion patterns and another with real-world pedestrian data. We test the performance of our model by evaluating its learning ability, mapping quality, and application to downstream tasks. The results demonstrate that our model can effectively learn the corresponding motion pattern, and has the potential to be applied to robotic application tasks.

arxiv情報

著者 Junyi Shi,Tomasz Piotr Kucner
発行日 2023-09-01 08:40:15+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.RO パーマリンク