PreAfford: Universal Affordance-Based Pre-Grasping for Diverse Objects and Environments

要約

2本指グリッパーによるロボット操作は、把持可能な明確な特徴を持たない物体によって困難が伴います。従来の事前把持法では、物体の位置を変えたり、テーブルの端のような外部補助を利用したりするのが一般的であるが、異なる物体カテゴリや環境に適応するには限界がある。これらの限界を克服するために、我々は、点レベルのアフォーダンス表現とリレー学習アプローチを組み込んだ、新しい事前把持計画フレームワークであるPreAffordを紹介する。本手法は、適応性を大幅に向上させ、様々な環境と物体タイプに効果的な操作を可能にする。ShapeNet-v2データセットで評価したところ、PreAffordは把持成功率を69%向上させただけでなく、実世界での実験に成功し、その実用性を実証した。これらの改善により、PreAffordは、様々な環境における複雑な操作タスクのロボットハンドリングの基準を再定義する可能性を強調している。

要約(オリジナル)

Robotic manipulation with two-finger grippers is challenged by objects lacking distinct graspable features. Traditional pre-grasping methods, which typically involve repositioning objects or utilizing external aids like table edges, are limited in their adaptability across different object categories and environments. To overcome these limitations, we introduce PreAfford, a novel pre-grasping planning framework that incorporates a point-level affordance representation and a relay training approach. Our method significantly improves adaptability, allowing effective manipulation across a wide range of environments and object types. When evaluated on the ShapeNet-v2 dataset, PreAfford not only enhances grasping success rates by 69% but also demonstrates its practicality through successful real-world experiments. These improvements highlight PreAfford’s potential to redefine standards for robotic handling of complex manipulation tasks in diverse settings.

arxiv情報

著者 Kairui Ding,Boyuan Chen,Ruihai Wu,Yuyang Li,Zongzheng Zhang,Huan-ang Gao,Siqi Li,Guyue Zhou,Yixin Zhu,Hao Dong,Hao Zhao
発行日 2024-07-04 08:13:57+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV, cs.RO パーマリンク