Adaptive Reinforcement Learning for Robot Control

要約

深層強化学習 (DRL) はシミュレーション領域で目覚ましい成功を収めていますが、シングルタスク指向と環境変化への適応力が不十分なため、ロボット コントローラーの設計への応用は依然として限られています。
これらの制限を克服するために、転移学習技術を活用して、さまざまなタスクや環境条件に応じてポリシーを動的に適応させる新しい適応エージェントを紹介します。
このアプローチは、マルチタスク能力と環境適応性が不可欠な飛行船制御チャレンジを通じて検証されます。
エージェントは、IsaacGym 上に構築された高度に並列化されたカスタム シミュレーターを使用してトレーニングされます。
さまざまな課題を解決するために、現実世界で飛行船を飛行させるゼロショット転送を実行します。
コードは \url{https://github.com/robot-perception-group/adaptive\_agent/} で共有されています。

要約(オリジナル)

Deep reinforcement learning (DRL) has shown remarkable success in simulation domains, yet its application in designing robot controllers remains limited, due to its single-task orientation and insufficient adaptability to environmental changes. To overcome these limitations, we present a novel adaptive agent that leverages transfer learning techniques to dynamically adapt policy in response to different tasks and environmental conditions. The approach is validated through the blimp control challenge, where multitasking capabilities and environmental adaptability are essential. The agent is trained using a custom, highly parallelized simulator built on IsaacGym. We perform zero-shot transfer to fly the blimp in the real world to solve various tasks. We share our code at \url{https://github.com/robot-perception-group/adaptive\_agent/}.

arxiv情報

著者 Yu Tang Liu,Nilaksh Singh,Aamir Ahmad
発行日 2024-09-17 12:29:43+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO, cs.SY, eess.SY パーマリンク