要約
強化学習 (RL) に基づく ROS ローカル プランナーのトレーニング パフォーマンスと、実世界のロボットで生成される軌跡を研究します。
RAD や DrQ などの Soft Actor Critic (SAC) アルゴリズムの最近の機能強化により、わずか 10000 エピソードでほぼ完璧なトレーニングが達成されることがわかりました。
また、実世界のロボットでは、結果として得られる SACPlanner が、DWA などの従来の ROS ローカル プランナーよりも障害物に対してより反応的であることも観察します。
要約(オリジナル)
We study the training performance of ROS local planners based on Reinforcement Learning (RL), and the trajectories they produce on real-world robots. We show that recent enhancements to the Soft Actor Critic (SAC) algorithm such as RAD and DrQ achieve almost perfect training after only 10000 episodes. We also observe that on real-world robots the resulting SACPlanner is more reactive to obstacles than traditional ROS local planners such as DWA.
arxiv情報
著者 | Khaled Nakhleh,Minahil Raza,Mack Tang,Matthew Andrews,Rinu Boney,Ilija Hadzic,Jeongran Lee,Atefeh Mohajeri,Karina Palyutina |
発行日 | 2023-03-21 12:35:12+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google