RobotFingerPrint: Unified Gripper Coordinate Space for Multi-Gripper Grasp Synthesis and Transfer

要約

我々は、把持合成と把持移動のための統一グリッパー座標空間(Unified Gripper Coordinate Space: UGCS)という新しい把持表現を紹介する。この表現では、球座標を活用し、異なるロボットグリッパー間で共有される座標空間を作成することで、新しい物体やこれまで見たことのないグリッパーの把持を合成し、伝達することを可能にします。この表現の強みは、グリッパーの手のひらと指をマッピングする能力と、統一された座標空間にある。把持合成は、条件付き変分オートエンコーダを介して、物体表面点の統一球座標を予測するように定式化される。予測された統一グリッパ座標は、グリッパと物体点間の正確な対応関係を確立し、把持ポーズと関節値を最適化するために使用される。把持移動は、任意の2つのグリッパー(潜在的に未見)間の点間対応によって促進され、同様の最適化によって解決されます。広範なシミュレーションと実世界での実験により、安定した多様な把持を生成するための統一的な把持表現の有効性が示されました。同様に、様々な対象物に対する人間の実演から、実際の把持の伝達を紹介します。

要約(オリジナル)

We introduce a novel grasp representation named the Unified Gripper Coordinate Space (UGCS) for grasp synthesis and grasp transfer. Our representation leverages spherical coordinates to create a shared coordinate space across different robot grippers, enabling it to synthesize and transfer grasps for both novel objects and previously unseen grippers. The strength of this representation lies in the ability to map palm and fingers of a gripper and the unified coordinate space. Grasp synthesis is formulated as predicting the unified spherical coordinates on object surface points via a conditional variational autoencoder. The predicted unified gripper coordinates establish exact correspondences between the gripper and object points, which is used to optimize grasp pose and joint values. Grasp transfer is facilitated through the point-to-point correspondence between any two (potentially unseen) grippers and solved via a similar optimization. Extensive simulation and real-world experiments showcase the efficacy of the unified grasp representation for grasp synthesis in generating stable and diverse grasps. Similarly, we showcase real-world grasp transfer from human demonstrations across different objects.

arxiv情報

著者 Ninad Khargonkar,Luis Felipe Casas,Balakrishnan Prabhakaran,Yu Xiang
発行日 2025-03-03 00:51:41+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV, cs.LG, cs.RO パーマリンク