PreAfford: Universal Affordance-Based Pre-Grasping for Diverse Objects and Environments

要約

2 本の指グリッパーを使用したロボット操作は、明確な把握可能な機能が欠けている物体によって困難になります。
従来の事前把握方法は、通常、オブジェクトの位置を変更したり、テーブルの端などの外部補助具を利用したりすることを伴いますが、さまざまなオブジェクト カテゴリや環境にわたる適応性には限界があります。
これらの制限を克服するために、ポイントレベルのアフォーダンス表現とリレートレーニングアプローチを組み込んだ新しい事前把握計画フレームワークであるPreAffordを紹介します。
私たちの方法は適応性を大幅に向上させ、幅広い環境やオブジェクトタイプにわたって効果的な操作を可能にします。
ShapeNet-v2 データセットで評価した場合、PreAfford は把握の成功率を 69% 向上させるだけでなく、成功した現実世界の実験を通じてその実用性を実証します。
これらの改善は、さまざまな設定における複雑な操作タスクのロボット処理の標準を再定義する PreAfford の可能性を強調しています。

要約(オリジナル)

Robotic manipulation with two-finger grippers is challenged by objects lacking distinct graspable features. Traditional pre-grasping methods, which typically involve repositioning objects or utilizing external aids like table edges, are limited in their adaptability across different object categories and environments. To overcome these limitations, we introduce PreAfford, a novel pre-grasping planning framework incorporating a point-level affordance representation and a relay training approach. Our method significantly improves adaptability, allowing effective manipulation across a wide range of environments and object types. When evaluated on the ShapeNet-v2 dataset, PreAfford not only enhances grasping success rates by 69% but also demonstrates its practicality through successful real-world experiments. These improvements highlight PreAfford’s potential to redefine standards for robotic handling of complex manipulation tasks in diverse settings.

arxiv情報

著者 Kairui Ding,Boyuan Chen,Ruihai Wu,Yuyang Li,Zongzheng Zhang,Huan-ang Gao,Siqi Li,Guyue Zhou,Yixin Zhu,Hao Dong,Hao Zhao
発行日 2024-08-23 12:36:18+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO パーマリンク