Learning-Free Grasping of Unknown Objects Using Hidden Superquadrics

要約

ロボットによる把持は本質的かつ基本的なタスクであり、過去数十年にわたり広範囲に研究されてきた。従来の研究では、物体の物理モデルを解析し、力覚把持を計算する。このような手法では、物体の完全な3Dモデルの事前知識が必要であり、入手が困難な場合があります。近年、機械学習の著しい進歩に伴い、データ駆動型の手法がこの分野を席巻しています。しかし、これらの手法は膨大な量の学習データを必要とし、一般化には限界があります。本論文では、データベースの知識や学習なしに、物体の点群から直接把持姿勢を予測・合成する新しい2段階アプローチを提案する。まず、物体内の異なる位置において、物体表面の局所的な幾何学的特徴を表す複数のスーパー四角形が回収される。その後、本アルゴリズムはスーパークアドリックの3対称性を利用し、回収された各スーパークアドリックから、対蹠的な把持のリストを合成する。各把手候補の品質を評価し、定量化するために、評価モデルを設計する。そして、最も高いスコアを持つ把持候補が、最終的な把持ポーズとして選択される。本手法の有効性を確認するために、孤立したシーンと満員のシーンを対象に実験を行った。その結果、本手法は、完全なモデルや事前学習を必要とせず、最先端の手法と比較して、競争力のある性能を示すことがわかった。

要約(オリジナル)

Robotic grasping is an essential and fundamental task and has been studied extensively over the past several decades. Traditional work analyzes physical models of the objects and computes force-closure grasps. Such methods require pre-knowledge of the complete 3D model of an object, which can be hard to obtain. Recently with significant progress in machine learning, data-driven methods have dominated the area. Although impressive improvements have been achieved, those methods require a vast amount of training data and suffer from limited generalizability. In this paper, we propose a novel two-stage approach to predicting and synthesizing grasping poses directly from the point cloud of an object without database knowledge or learning. Firstly, multiple superquadrics are recovered at different positions within the object, representing the local geometric features of the object surface. Subsequently, our algorithm exploits the tri-symmetry feature of superquadrics and synthesizes a list of antipodal grasps from each recovered superquadric. An evaluation model is designed to assess and quantify the quality of each grasp candidate. The grasp candidate with the highest score is then selected as the final grasping pose. We conduct experiments on isolated and packed scenes to corroborate the effectiveness of our method. The results indicate that our method demonstrates competitive performance compared with the state-of-the-art without the need for either a full model or prior training.

arxiv情報

著者 Yuwei Wu,Weixiao Liu,Zhiyang Liu,Gregory S. Chirikjian
発行日 2023-05-11 06:09:10+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.RO パーマリンク