要約
低忠実度シミュレータを使用して、制約付き群衆ナビゲーションのための強化学習 (RL) ポリシーを導入する実現可能性を調査します。
人間と障害物の表現を分離して、動的な環境の表現を導入します。
人間は検出された状態によって表現され、障害物は地図とロボットの位置特定に基づいて計算された点群として表現されます。
この表現により、低忠実度シミュレーターでトレーニングされた RL ポリシーを、縮小された sim2real ギャップで現実世界に展開できるようになります。
さらに、エージェントと障害物の間の相互作用をモデル化するための時空間グラフを提案します。
グラフに基づいて、注意メカニズムを使用してロボットと人間、人間と人間、人間と障害物の相互作用を捕捉します。
私たちの方法は、シミュレーション環境と現実世界の両方の環境でナビゲーションのパフォーマンスを大幅に向上させます。
ビデオデモは https://sites.google.com/view/constrained-crowdnav/home でご覧いただけます。
要約(オリジナル)
We investigate the feasibility of deploying reinforcement learning (RL) policies for constrained crowd navigation using a low-fidelity simulator. We introduce a representation of the dynamic environment, separating human and obstacle representations. Humans are represented through detected states, while obstacles are represented as computed point clouds based on maps and robot localization. This representation enables RL policies trained in a low-fidelity simulator to deploy in real world with a reduced sim2real gap. Additionally, we propose a spatio-temporal graph to model the interactions between agents and obstacles. Based on the graph, we use attention mechanisms to capture the robot-human, human-human, and human-obstacle interactions. Our method significantly improves navigation performance in both simulated and real-world environments. Video demonstrations can be found at https://sites.google.com/view/constrained-crowdnav/home.
arxiv情報
著者 | Shuijing Liu,Kaiwen Hong,Neeloy Chakraborty,Katherine Driggs-Campbell |
発行日 | 2024-05-28 01:20:43+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google