PreAfford: Universal Affordance-Based Pre-Grasping for Diverse Objects and Environments

要約

2本指グリッパーを用いた把持不可能な物体のロボット操作は、把持可能な特徴が少ないために大きな困難を伴う。一方、従来の事前把持技術は、物体の再配置やテーブルエッジのような外部補助を利用することに依存しており、物体のカテゴリやシーンに対する適応性に欠けている。この問題に対して、我々はPreAffordを紹介する。PreAffordは、点レベルのアフォーダンス表現とリレー学習アプローチを利用することで、未知のものを含む幅広い環境とオブジェクトタイプに対する適応性を向上させる、新しい事前把握計画フレームワークである。ShapeNet-v2データセットで実証されたPreAffordは、把持成功率を69%大幅に向上させ、実世界の実験を通じてその実用性を検証した。本研究は、把持不可能な物体を操作するための堅牢で適応性の高いソリューションを提供する。

要約(オリジナル)

Robotic manipulation of ungraspable objects with two-finger grippers presents significant challenges due to the paucity of graspable features, while traditional pre-grasping techniques, which rely on repositioning objects and leveraging external aids like table edges, lack the adaptability across object categories and scenes. Addressing this, we introduce PreAfford, a novel pre-grasping planning framework that utilizes a point-level affordance representation and a relay training approach to enhance adaptability across a broad range of environments and object types, including those previously unseen. Demonstrated on the ShapeNet-v2 dataset, PreAfford significantly improves grasping success rates by 69% and validates its practicality through real-world experiments. This work offers a robust and adaptable solution for manipulating ungraspable objects.

arxiv情報

著者 Kairui Ding,Boyuan Chen,Ruihai Wu,Yuyang Li,Zongzheng Zhang,Huan-ang Gao,Siqi Li,Yixin Zhu,Guyue Zhou,Hao Dong,Hao Zhao
発行日 2024-04-04 17:54:12+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV, cs.RO パーマリンク