要約
ロボットの器用な把持は、自由度 (DoF) が高く、複数の指を持つロボットハンドの複雑な接触のため、困難な問題です。
既存の深層強化学習 (DRL) ベースの方法は、人間のデモンストレーションを活用して、器用な把握による高次元のアクション空間によるサンプルの複雑さを軽減します。
ただし、高レベルの一般化のための手とオブジェクトの相互作用表現にはあまり注意が払われていません。
この論文では、DexRep という名前の新しい幾何学的および空間的な手とオブジェクトの相互作用表現を提案し、動的なオブジェクト形状の特徴と、把持中の手とオブジェクト間の空間的関係をキャプチャします。
DexRep は、手を動かすことによって検出範囲内の大まかな形状を表す Occupancy Feature、手とオブジェクトの表面距離を変更するための Surface Feature、潜在的な接触に最も関連する局所的な幾何学的表面特徴のための Local-Geo Feature で構成されます。
新しい表現に基づいて、一般化可能な把握ポリシー DexRepNet を学習するための器用な深層強化学習方法を提案します。
実験結果は、ロボット把持の既存の表現を使用したベースラインよりも、把持成功率と収束速度の両方で劇的に優れていることを示しています。
シミュレーションと実世界の実験の両方で、目に見えるオブジェクトの把握成功率は 93%、目に見えないカテゴリのさまざまなオブジェクトの把握成功率は 80% を超えています。
要約(オリジナル)
Robotic dexterous grasping is a challenging problem due to the high degree of freedom (DoF) and complex contacts of multi-fingered robotic hands. Existing deep reinforcement learning (DRL) based methods leverage human demonstrations to reduce sample complexity due to the high dimensional action space with dexterous grasping. However, less attention has been paid to hand-object interaction representations for high-level generalization. In this paper, we propose a novel geometric and spatial hand-object interaction representation, named DexRep, to capture dynamic object shape features and the spatial relations between hands and objects during grasping. DexRep comprises Occupancy Feature for rough shapes within sensing range by moving hands, Surface Feature for changing hand-object surface distances, and Local-Geo Feature for local geometric surface features most related to potential contacts. Based on the new representation, we propose a dexterous deep reinforcement learning method to learn a generalizable grasping policy DexRepNet. Experimental results show that our method outperforms baselines using existing representations for robotic grasping dramatically both in grasp success rate and convergence speed. It achieves a 93% grasping success rate on seen objects and higher than 80% grasping success rates on diverse objects of unseen categories in both simulation and real-world experiments.
arxiv情報
著者 | Qingtao Liu,Yu Cui,Zhengnan Sun,Haoming Li,Gaofeng Li,Lin Shao,Jiming Chen,Qi Ye |
発行日 | 2023-03-20 02:04:44+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google