Parallel Distributional Deep Reinforcement Learning for Mapless Navigation of Terrestrial Mobile Robots

要約

本稿では、地上移動ロボットのナビゲーションのために、並列分布型アクター・クリティック・ネットワークを用いた新しい深層強化学習(Deep-RL)技術を紹介する。我々のアプローチは、ロボットを誘導するために、レーザー距離の知見、相対距離、ターゲットへの角度を利用する。我々はエージェントをGazeboシミュレータで訓練し、実際のシナリオに配置した。その結果、並列分布型Deep-RLアルゴリズムが意思決定を強化し、ナビゲーションと空間汎化において非分布型アプローチや行動ベースアプローチを凌駕することが示された。

要約(オリジナル)

This paper introduces novel deep reinforcement learning (Deep-RL) techniques using parallel distributional actor-critic networks for navigating terrestrial mobile robots. Our approaches use laser range findings, relative distance, and angle to the target to guide the robot. We trained agents in the Gazebo simulator and deployed them in real scenarios. Results show that parallel distributional Deep-RL algorithms enhance decision-making and outperform non-distributional and behavior-based approaches in navigation and spatial generalization.

arxiv情報

著者 Victor Augusto Kich,Alisson Henrique Kolling,Junior Costa de Jesus,Gabriel V. Heisler,Hiago Jacobs,Jair Augusto Bottega,André L. da S. Kelbouscas,Akihisa Ohya,Ricardo Bedin Grando,Paulo Lilles Jorge Drews-Jr,Daniel Fernando Tello Gamarra
発行日 2024-09-01 00:29:49+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.RO パーマリンク