要約
コスト効率の高いハードウェアを使用した動的な屋内環境での先見の明のあるロボット ナビゲーションには、軽量でありながら信頼性の高いコントローラーの使用が必要です。
したがって、明示的なオブジェクト追跡を行わずにセンサーの読み取り値からシーンのダイナミクスを推測することは、歩行者の間で先見の明のあるナビゲーションの極めて重要な側面となります。
この論文では、2D ライダー センサーの読み取り値に基づいてナビゲーションを強化するための時空間アテンション パイプラインを紹介します。
このパイプラインは、静的な障害物よりも動的な障害物を強調する新しい LIDAR 状態表現によって補完されます。
その後、アテンション メカニズムにより、空間と時間の両方にわたって選択的なシーン認識が可能になり、その結果、動的なシナリオ内での全体的なナビゲーション パフォーマンスが向上します。
私たちはさまざまなシナリオやシミュレーターでこのアプローチを徹底的に評価し、目に見えない環境への優れた一般化を発見しました。
その結果、最先端の手法と比較して優れたパフォーマンスが実証され、学習したコントローラーを実際のロボットにシームレスに展開できるようになります。
要約(オリジナル)
Foresighted robot navigation in dynamic indoor environments with cost-efficient hardware necessitates the use of a lightweight yet dependable controller. So inferring the scene dynamics from sensor readings without explicit object tracking is a pivotal aspect of foresighted navigation among pedestrians. In this paper, we introduce a spatiotemporal attention pipeline for enhanced navigation based on 2D~lidar sensor readings. This pipeline is complemented by a novel lidar-state representation that emphasizes dynamic obstacles over static ones. Subsequently, the attention mechanism enables selective scene perception across both space and time, resulting in improved overall navigation performance within dynamic scenarios. We thoroughly evaluated the approach in different scenarios and simulators, finding excellent generalization to unseen environments. The results demonstrate outstanding performance compared to state-of-the-art methods, thereby enabling the seamless deployment of the learned controller on a real robot.
arxiv情報
著者 | Jorge de Heuvel,Xiangyu Zeng,Weixian Shi,Tharun Sethuraman,Maren Bennewitz |
発行日 | 2024-02-28 13:14:47+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google