Behavior Imitation for Manipulator Control and Grasping with Deep Reinforcement Learning

要約

既存のモーション模倣モデルは通常、MoCap デバイスを通じて取得される専門家データを必要としますが、必要な膨大な量のトレーニング データを取得するのは難しく、財政的リソース、人材、時間の多大な投資が必要です。
このプロジェクトは、3D 人間の姿勢推定と強化学習を組み合わせ、運動模倣を強化学習における関節角度値の予測問題に単純化する新しいモデルを提案します。
これにより、膨大な量のトレーニング データへの依存が大幅に軽減され、エージェントがわずか数秒のビデオから模倣ポリシーを学習し、強力な一般化機能を発揮できるようになります。
学習したポリシーをすぐに適用して、見慣れないビデオで人間の腕の動きを模倣できます。
モデルはまず、3D 人間の姿勢推定を使用して、特定のビデオから人間の腕の骨格の動きを抽出します。
これらの抽出された腕の動きは、形態学的にロボット マニピュレーターに再ターゲットされます。
その後、リターゲットされたモーションを使用して参照モーションが生成されます。
最後に、これらの参照動作を使用して強化学習問題を定式化し、エージェントが人間の腕の動作を模倣するためのポリシーを学習できるようにします。
このプロジェクトは模倣タスクに優れており、他の馴染みのないビデオから人間の腕の動きを正確に模倣する堅牢な転送可能性を示しています。
このプロジェクトは、軽量、便利、効率的、正確なモーション模倣モデルを提供します。
モーションイミテーションの複雑なプロセスを簡素化しながら、顕著に優れたパフォーマンスを実現します。

要約(オリジナル)

The existing Motion Imitation models typically require expert data obtained through MoCap devices, but the vast amount of training data needed is difficult to acquire, necessitating substantial investments of financial resources, manpower, and time. This project combines 3D human pose estimation with reinforcement learning, proposing a novel model that simplifies Motion Imitation into a prediction problem of joint angle values in reinforcement learning. This significantly reduces the reliance on vast amounts of training data, enabling the agent to learn an imitation policy from just a few seconds of video and exhibit strong generalization capabilities. It can quickly apply the learned policy to imitate human arm motions in unfamiliar videos. The model first extracts skeletal motions of human arms from a given video using 3D human pose estimation. These extracted arm motions are then morphologically retargeted onto a robotic manipulator. Subsequently, the retargeted motions are used to generate reference motions. Finally, these reference motions are used to formulate a reinforcement learning problem, enabling the agent to learn a policy for imitating human arm motions. This project excels at imitation tasks and demonstrates robust transferability, accurately imitating human arm motions from other unfamiliar videos. This project provides a lightweight, convenient, efficient, and accurate Motion Imitation model. While simplifying the complex process of Motion Imitation, it achieves notably outstanding performance.

arxiv情報

著者 Liu Qiyuan
発行日 2024-05-02 13:43:22+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.RO, I.2.9 パーマリンク