要約
器用な把握は、ロボットの操作における基本的でありながら挑戦的なスキルであり、ロボットの手とオブジェクトの間の正確な相互作用を必要とします。
このホワイトペーパーでは、$ \ mathcal {d(r、o)} $ graspを提示します。これは、その把握ポーズとオブジェクトのロボットハンド間の相互作用をモデル化する新しいフレームワークであり、さまざまなロボットの手とオブジェクトのジオメトリに広範な一般化を可能にします。
私たちのモデルは、ロボットハンドの説明とオブジェクトポイントクラウドを入力として取得し、運動的に有効で安定した握りを効率的に予測し、多様なロボットの実施形態とオブジェクトジオメトリに対する強い適応性を示します。
シミュレートされた環境と現実世界の両方の環境で実施された広範な実験は、成功率、多様性を把握し、複数のロボットハンドにわたって推論速度を大幅に改善し、アプローチの有効性を検証します。
私たちの方法は、3つの異なる器用なロボットハンドでテストされた1秒未満でシミュレーションで87.53%の平均成功率を達成します。
Leaphandを使用した実際の実験では、この方法は89%の平均成功率も示しています。
$ \ mathcal {d(r、o)} $ graspは、複雑で多様な環境で器用な握るための堅牢なソリューションを提供します。
コード、付録、ビデオは、プロジェクトWebサイトhttps://nus-lins-lab.github.io/drograspweb/で入手できます。
要約(オリジナル)
Dexterous grasping is a fundamental yet challenging skill in robotic manipulation, requiring precise interaction between robotic hands and objects. In this paper, we present $\mathcal{D(R,O)}$ Grasp, a novel framework that models the interaction between the robotic hand in its grasping pose and the object, enabling broad generalization across various robot hands and object geometries. Our model takes the robot hand’s description and object point cloud as inputs and efficiently predicts kinematically valid and stable grasps, demonstrating strong adaptability to diverse robot embodiments and object geometries. Extensive experiments conducted in both simulated and real-world environments validate the effectiveness of our approach, with significant improvements in success rate, grasp diversity, and inference speed across multiple robotic hands. Our method achieves an average success rate of 87.53% in simulation in less than one second, tested across three different dexterous robotic hands. In real-world experiments using the LeapHand, the method also demonstrates an average success rate of 89%. $\mathcal{D(R,O)}$ Grasp provides a robust solution for dexterous grasping in complex and varied environments. The code, appendix, and videos are available on our project website at https://nus-lins-lab.github.io/drograspweb/.
arxiv情報
著者 | Zhenyu Wei,Zhixuan Xu,Jingxiang Guo,Yiwen Hou,Chongkai Gao,Zhehao Cai,Jiayu Luo,Lin Shao |
発行日 | 2025-03-14 07:49:02+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google