要約
この論文では、地上移動ロボットのナビゲーションに並列分散型アクタークリティカルネットワークを使用した新しい深層強化学習 (Deep-RL) 技術を紹介します。
私たちのアプローチでは、レーザー距離の検出結果、相対距離、ターゲットまでの角度を使用してロボットを誘導します。
Gazebo シミュレーターでエージェントをトレーニングし、実際のシナリオに導入しました。
結果は、並列分散型 Deep-RL アルゴリズムが意思決定を強化し、ナビゲーションと空間一般化において非分散型および動作ベースのアプローチよりも優れていることを示しています。
要約(オリジナル)
This paper introduces novel deep reinforcement learning (Deep-RL) techniques using parallel distributional actor-critic networks for navigating terrestrial mobile robots. Our approaches use laser range findings, relative distance, and angle to the target to guide the robot. We trained agents in the Gazebo simulator and deployed them in real scenarios. Results show that parallel distributional Deep-RL algorithms enhance decision-making and outperform non-distributional and behavior-based approaches in navigation and spatial generalization.
arxiv情報
著者 | Victor Augusto Kich,Alisson Henrique Kolling,Junior Costa de Jesus,Gabriel V. Heisler,Hiago Jacobs,Jair Augusto Bottega,André L. da S. Kelbouscas,Akihisa Ohya,Ricardo Bedin Grando,Paulo Lilles Jorge Drews-Jr,Daniel Fernando Tello Gamarra |
発行日 | 2024-08-11 10:45:08+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google