要約
ロボットタスクでは、タスクの効率と速度を向上させるために複数のマニピュレーターが必要になることがよくありますが、これにより、コラボレーション、衝突回避、および拡張された状態アクションスペースの観点から複雑さが向上します。
これらの課題に対処するために、補強学習(RL)と動的運動プリミティブ(DMP)を組み合わせたマルチレベルのアプローチを提案し、デモンストレーションライブラリを使用して動的環境で新しいタスクの適応型、リアルタイムの軌跡を生成します。
この方法により、衝突のない軌道の生成と効率的な共同運動計画が保証されます。
UR5Eロボットマニピュレーターを使用したPybulletシミュレーション環境での実験を通じてアプローチを検証します。
要約(オリジナル)
Robotic tasks often require multiple manipulators to enhance task efficiency and speed, but this increases complexity in terms of collaboration, collision avoidance, and the expanded state-action space. To address these challenges, we propose a multi-level approach combining Reinforcement Learning (RL) and Dynamic Movement Primitives (DMP) to generate adaptive, real-time trajectories for new tasks in dynamic environments using a demonstration library. This method ensures collision-free trajectory generation and efficient collaborative motion planning. We validate the approach through experiments in the PyBullet simulation environment with UR5e robotic manipulators.
arxiv情報
著者 | Siddharth Singh,Tian Xu,Qing Chang |
発行日 | 2025-03-05 15:13:25+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google