$\mathcal{D(R,O)}$ Grasp: A Unified Representation of Robot and Object Interaction for Cross-Embodiment Dexterous Grasping

要約

器用な把握は、ロボット操作における基本的かつ困難なスキルであり、ロボットの手と物体との間の正確な相互作用が必要です。
この論文では、$\mathcal{D(R,O)}$ Grasp を紹介します。$\mathcal{D(R,O)}$ Grasp は、掴むポーズのロボット ハンドとオブジェクトの間の相互作用をモデル化し、さまざまなロボット ハンドやオブジェクトの幾何学形状にわたって広範な一般化を可能にする新しいフレームワークです。
私たちのモデルは、ロボットハンドの説明と物体の点群を入力として受け取り、運動学的に有効で安定した把握を効率的に予測し、多様なロボットの実施形態と物体の幾何学形状に対する強力な適応性を実証します。
シミュレーション環境と現実世界の両方で行われた広範な実験により、複数のロボットハンドにわたる成功率、把握の多様性、推論速度が大幅に向上し、私たちのアプローチの有効性が検証されました。
私たちの方法は、3 つの異なる器用なロボット ハンドでテストした結果、1 秒未満のシミュレーションで平均 87.53% の成功率を達成しました。
LeapHand を使用した実際の実験でも、このメソッドは平均 89% の成功率を示しています。
$\mathcal{D(R,O)}$ Grasp は、複雑で多様な環境で器用に把握するための堅牢なソリューションを提供します。
コード、付録、ビデオは、プロジェクト Web サイト (https://nus-lins-lab.github.io/drograspweb/) で入手できます。

要約(オリジナル)

Dexterous grasping is a fundamental yet challenging skill in robotic manipulation, requiring precise interaction between robotic hands and objects. In this paper, we present $\mathcal{D(R,O)}$ Grasp, a novel framework that models the interaction between the robotic hand in its grasping pose and the object, enabling broad generalization across various robot hands and object geometries. Our model takes the robot hand’s description and object point cloud as inputs and efficiently predicts kinematically valid and stable grasps, demonstrating strong adaptability to diverse robot embodiments and object geometries. Extensive experiments conducted in both simulated and real-world environments validate the effectiveness of our approach, with significant improvements in success rate, grasp diversity, and inference speed across multiple robotic hands. Our method achieves an average success rate of 87.53% in simulation in less than one second, tested across three different dexterous robotic hands. In real-world experiments using the LeapHand, the method also demonstrates an average success rate of 89%. $\mathcal{D(R,O)}$ Grasp provides a robust solution for dexterous grasping in complex and varied environments. The code, appendix, and videos are available on our project website at https://nus-lins-lab.github.io/drograspweb/.

arxiv情報

著者 Zhenyu Wei,Zhixuan Xu,Jingxiang Guo,Yiwen Hou,Chongkai Gao,Zhehao Cai,Jiayu Luo,Lin Shao
発行日 2024-10-02 16:12:18+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク