Learning Continuous Grasping Function with a Dexterous Hand from Human Demonstrations

要約

陰関数を使用して器用な手で操作するための握る動きを生成することを学ぶことを提案します。
継続的な時間入力により、モデルは継続的でスムーズな把握計画を生成できます。
提案されたモデルをContinuousGraspingFunction(CGF)と名付けます。
CGFは、3D人間のデモンストレーションを使用した条件付き変分オートエンコーダーによる生成モデリングによって学習されます。
まず、大規模な人間と物体の相互作用の軌跡をモーションリターゲティングを介してロボットのデモンストレーションに変換し、次にこれらのデモンストレーションを使用してCGFをトレーニングします。
推論中に、CGFを使用してサンプリングを実行し、シミュレーターでさまざまな把握計画を生成し、成功した計画を選択して実際のロボットに転送します。
多様な人間のデータをトレーニングすることにより、CGFは一般化によって複数のオブジェクトを操作できるようにします。
以前の計画アルゴリズムと比較して、CGFはより効率的であり、実際のAllegroHandでの把握に移行すると成功率が大幅に向上します。
私たちのプロジェクトページはhttps://jianglongye.com/cgfにあります。

要約(オリジナル)

We propose to learn to generate grasping motion for manipulation with a dexterous hand using implicit functions. With continuous time inputs, the model can generate a continuous and smooth grasping plan. We name the proposed model Continuous Grasping Function (CGF). CGF is learned via generative modeling with a Conditional Variational Autoencoder using 3D human demonstrations. We will first convert the large-scale human-object interaction trajectories to robot demonstrations via motion retargeting, and then use these demonstrations to train CGF. During inference, we perform sampling with CGF to generate different grasping plans in the simulator and select the successful ones to transfer to the real robot. By training on diverse human data, our CGF allows generalization to manipulate multiple objects. Compared to previous planning algorithms, CGF is more efficient and achieves significant improvement on success rate when transferred to grasping with the real Allegro Hand. Our project page is at https://jianglongye.com/cgf .

arxiv情報

著者 Jianglong Ye,Jiashun Wang,Binghao Huang,Yuzhe Qin,Xiaolong Wang
発行日 2022-07-12 07:18:21+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG, cs.RO パーマリンク