要約
深層強化学習 (DRL) は、幅広いロボット アプリケーションを通じてモーション制御と意思決定を強化するための有望なアプローチとして浮上しています。
これまでの研究では、空中および地上移動ロボットの自律的なマップレスナビゲーションの促進における DRL アルゴリズムの有効性が実証されてきましたが、これらの手法は、未知のタスクや環境に直面した場合、一般化が不十分であることがよくあります。
このペーパーでは、新しい状況への一般化を促進し、エージェントの全体的なパフォーマンスを強化するための遅延ポリシー更新 (DPU) 手法の影響について調査します。
航空および地上移動ロボットの DPU を分析したところ、この技術により一般化の欠如が大幅に削減され、エージェントの学習プロセスが加速され、多様なタスクや未知のシナリオにわたって効率が向上することが明らかになりました。
要約(オリジナル)
Deep Reinforcement Learning (DRL) has emerged as a promising approach to enhancing motion control and decision-making through a wide range of robotic applications. While prior research has demonstrated the efficacy of DRL algorithms in facilitating autonomous mapless navigation for aerial and terrestrial mobile robots, these methods often grapple with poor generalization when faced with unknown tasks and environments. This paper explores the impact of the Delayed Policy Updates (DPU) technique on fostering generalization to new situations, and bolstering the overall performance of agents. Our analysis of DPU in aerial and terrestrial mobile robots reveals that this technique significantly curtails the lack of generalization and accelerates the learning process for agents, enhancing their efficiency across diverse tasks and unknown scenarios.
arxiv情報
著者 | Ricardo B. Grando,Raul Steinmetz,Victor A. Kich,Alisson H. Kolling,Pablo M. Furik,Junior C. de Jesus,Bruna V. Guterres,Daniel T. Gamarra,Rodrigo S. Guerra,Paulo L. J. Drews-Jr |
発行日 | 2024-06-04 04:16:38+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google