要約
移動ロボットにとって衝突のない動作は不可欠です。
車輪付きロボットによる衝突のない効率的なナビゲーションへのほとんどのアプローチでは、適切なナビゲーション動作を得るために専門家によるパラメーター調整が必要です。
この研究では、複雑な環境における自律ナビゲーションのための移動ロボットを訓練するための深層強化学習の応用を調査します。
このロボットは、LiDAR センサー データとディープ ニューラル ネットワークを利用して、障害物を回避しながら指定されたターゲットに向かってロボットを誘導する制御信号を生成します。
Gazebo シミュレーション環境では、Deep Deterministic Policy Gradient と Proximal Policy Optimization という 2 つの強化学習アルゴリズムを採用しています。
この研究では、パフォーマンスを向上させるために近接ポリシー最適化アルゴリズムに強化されたニューラル ネットワーク構造を導入し、アルゴリズムの有効性を向上させるために適切に設計された報酬関数を伴います。
障害物と障害物のない環境の両方で実施された実験結果は、提案されたアプローチの有効性を強調しています。
この研究は、深層強化学習の応用を通じて、複雑な環境における自律ロボット工学の進歩に大きく貢献します。
要約(オリジナル)
Collision-free motion is essential for mobile robots. Most approaches to collision-free and efficient navigation with wheeled robots require parameter tuning by experts to obtain good navigation behavior. This study investigates the application of deep reinforcement learning to train a mobile robot for autonomous navigation in a complex environment. The robot utilizes LiDAR sensor data and a deep neural network to generate control signals guiding it toward a specified target while avoiding obstacles. We employ two reinforcement learning algorithms in the Gazebo simulation environment: Deep Deterministic Policy Gradient and proximal policy optimization. The study introduces an enhanced neural network structure in the Proximal Policy Optimization algorithm to boost performance, accompanied by a well-designed reward function to improve algorithm efficacy. Experimental results conducted in both obstacle and obstacle-free environments underscore the effectiveness of the proposed approach. This research significantly contributes to the advancement of autonomous robotics in complex environments through the application of deep reinforcement learning.
arxiv情報
| 著者 | Hamid Taheri,Seyed Rasoul Hosseini,Mohammad Ali Nekoui |
| 発行日 | 2024-08-06 21:26:31+00:00 |
| arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google