Geometry Matching for Multi-Embodiment Grasping

要約

既存の学習ベースの把握アプローチの多くは、単一の実施形態に集中しており、より高い自由度のエンドエフェクタに対する限られた一般化しか提供せず、多様な把握モードのセットを捕捉することができない。
我々は、グラフニューラルネットワークを使用してオブジェクトとエンドエフェクターの両方の豊富な幾何学的表現を学習することにより、複数の実施形態を使用して把握するという問題に取り組みます。
私たちの新しい方法であるGeoMatchは、複数の実施形態からの把握データに教師あり学習を適用し、エンドツーエンドの接触点尤度マップを学習するだけでなく、キーポイントごとの把握の条件付き自己回帰予測も行います。
我々の方法を複数の実施形態をサポートするベースラインと比較する。
私たちのアプローチは、3 つのエンドエフェクター全体でより優れたパフォーマンスを発揮すると同時に、多様な把握を実現します。
実際のロボットのデモを含む例は、geo-match.github.io にあります。

要約(オリジナル)

Many existing learning-based grasping approaches concentrate on a single embodiment, provide limited generalization to higher DoF end-effectors and cannot capture a diverse set of grasp modes. We tackle the problem of grasping using multiple embodiments by learning rich geometric representations for both objects and end-effectors using Graph Neural Networks. Our novel method – GeoMatch – applies supervised learning on grasping data from multiple embodiments, learning end-to-end contact point likelihood maps as well as conditional autoregressive predictions of grasps keypoint-by-keypoint. We compare our method against baselines that support multiple embodiments. Our approach performs better across three end-effectors, while also producing diverse grasps. Examples, including real robot demos, can be found at geo-match.github.io.

arxiv情報

著者 Maria Attarian,Muhammad Adil Asif,Jingzhou Liu,Ruthrash Hari,Animesh Garg,Igor Gilitschenski,Jonathan Tompson
発行日 2023-12-06 19:20:01+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク