要約
最近の研究では、押す、注ぐなどの複雑な操作スキルは、強化学習 (RL) などの最先端の学習ベースの手法を通じて学習できることが示されています。
ただし、これらの方法は多くの場合、サンプルの複雑さが高く、ドメインの変更の影響を受けやすく、ロボットが実行すべきではない危険な動作を生成します。
一方、純粋に幾何学的なモデルベースの計画では、ロボットの幾何学的制約をすべて満たす複雑な動作を生成できますが、特定の環境では動的に実行できない可能性があります。
この作業では、幾何学的なモデルベースのプランナーを活用して、タスクを完了するためにタスク固有のメタ ポリシーを学習できるパス ポリシーの混合物を構築します。
私たちの結果では、成功するメタポリシーは、必要なデータがほとんどなく、環境の不確実性をモデル化するのに堅牢でありながら、ドアを押すように学習できることを示しています。
シミュレーションでキャビネットのドアを押す 7-DOF Franka-Emika ロボットでメソッドをテストしました。
要約(オリジナル)
Recent work has shown that complex manipulation skills, such as pushing or pouring, can be learned through state-of-the-art learning based techniques, such as Reinforcement Learning (RL). However, these methods often have high sample-complexity, are susceptible to domain changes, and produce unsafe motions that a robot should not perform. On the other hand, purely geometric model-based planning can produce complex behaviors that satisfy all the geometric constraints of the robot but might not be dynamically feasible for a given environment. In this work, we leverage a geometric model-based planner to build a mixture of path-policies on which a task-specific meta-policy can be learned to complete the task. In our results, we demonstrate that a successful meta-policy can be learned to push a door, while requiring little data and being robust to model uncertainty of the environment. We tested our method on a 7-DOF Franka-Emika Robot pushing a cabinet door in simulation.
arxiv情報
著者 | Constantinos Chamzas,Caelan Garrett,Balakumar Sundaralingam,Lydia E. Kavraki,Dieter Fox |
発行日 | 2023-07-08 20:06:18+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google