$\mathcal{D(R,O)}$ Grasp: A Unified Representation of Robot and Object Interaction for Cross-Embodiment Dexterous Grasping

要約

器用な把持は、ロボットハンドと物体との間の正確な相互作用を必要とする、ロボット操作の基本的でありながら困難なスキルである。本論文では、把持ポーズをとるロボットハンドと物体との相互作用をモデル化する新しいフレームワーク$mathcal{D(R,O)}$ Graspを紹介する。我々のモデルは、ロボットハンドの記述と物体点群を入力とし、運動学的に有効で安定した把持を効率的に予測し、多様なロボットの形態と物体形状に強い適応性を示す。シミュレーション環境と実環境の両方で行われた広範な実験により、複数のロボットハンドにおいて、成功率、把持の多様性、推論速度が大幅に改善され、我々のアプローチの有効性が検証された。我々の手法は、3つの異なる器用なロボットハンドでテストした結果、シミュレーションでは平均87.53%の成功率を1秒未満で達成した。また、LeapHandを用いた実際の実験においても、本手法は平均89%の成功率を示す。Graspは、複雑で多様な環境で器用に把持するためのロバストなソリューションを提供する。コード、付録、ビデオはプロジェクトのウェブサイトhttps://nus-lins-lab.github.io/drograspweb/。

要約(オリジナル)

Dexterous grasping is a fundamental yet challenging skill in robotic manipulation, requiring precise interaction between robotic hands and objects. In this paper, we present $\mathcal{D(R,O)}$ Grasp, a novel framework that models the interaction between the robotic hand in its grasping pose and the object, enabling broad generalization across various robot hands and object geometries. Our model takes the robot hand’s description and object point cloud as inputs and efficiently predicts kinematically valid and stable grasps, demonstrating strong adaptability to diverse robot embodiments and object geometries. Extensive experiments conducted in both simulated and real-world environments validate the effectiveness of our approach, with significant improvements in success rate, grasp diversity, and inference speed across multiple robotic hands. Our method achieves an average success rate of 87.53% in simulation in less than one second, tested across three different dexterous robotic hands. In real-world experiments using the LeapHand, the method also demonstrates an average success rate of 89%. $\mathcal{D(R,O)}$ Grasp provides a robust solution for dexterous grasping in complex and varied environments. The code, appendix, and videos are available on our project website at https://nus-lins-lab.github.io/drograspweb/.

arxiv情報

著者 Zhenyu Wei,Zhixuan Xu,Jingxiang Guo,Yiwen Hou,Chongkai Gao,Zhehao Cai,Jiayu Luo,Lin Shao
発行日 2024-10-03 16:05:08+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.RO パーマリンク