Learning-Free Grasping of Unknown Objects Using Hidden Superquadrics

要約

ロボットによる掴みは不可欠かつ基本的なタスクであり、過去数十年にわたって広範囲に研究されてきました。
従来の研究では、物体の物理モデルを分析し、力による閉鎖の把握を計算します。
このような方法では、オブジェクトの完全な 3D モデルについての事前知識が必要ですが、それを入手するのは困難です。
最近、機械学習の大幅な進歩により、データ駆動型の手法がこの分野を席巻しています。
目覚ましい改善が達成されていますが、これらの方法では膨大な量のトレーニング データが必要であり、汎用性が限られています。
この論文では、データベースの知識や学習を必要とせずに、物体の点群から直接把握ポーズを予測および合成するための新しい 2 段階のアプローチを提案します。
まず、物体表面の局所的な幾何学的特徴を表す複数の超二次関数が物体内の異なる位置で復元されます。
続いて、私たちのアルゴリズムは超二次関数の三対称性の特徴を利用し、復元された各超二次関数から対蹠把握のリストを合成します。
評価モデルは、各把握候補の品質を評価し、定量化するように設計されています。
そして、最も高いスコアを有する掴み候補が、最終的な掴みポーズとして選択される。
私たちは、手法の有効性を裏付けるために、孤立したシーンと密集したシーンで実験を実施します。
結果は、完全なモデルや事前のトレーニングを必要とせずに、私たちの方法が最先端技術と比較して競争力のあるパフォーマンスを実証していることを示しています。

要約(オリジナル)

Robotic grasping is an essential and fundamental task and has been studied extensively over the past several decades. Traditional work analyzes physical models of the objects and computes force-closure grasps. Such methods require pre-knowledge of the complete 3D model of an object, which can be hard to obtain. Recently with significant progress in machine learning, data-driven methods have dominated the area. Although impressive improvements have been achieved, those methods require a vast amount of training data and suffer from limited generalizability. In this paper, we propose a novel two-stage approach to predicting and synthesizing grasping poses directly from the point cloud of an object without database knowledge or learning. Firstly, multiple superquadrics are recovered at different positions within the object, representing the local geometric features of the object surface. Subsequently, our algorithm exploits the tri-symmetry feature of superquadrics and synthesizes a list of antipodal grasps from each recovered superquadric. An evaluation model is designed to assess and quantify the quality of each grasp candidate. The grasp candidate with the highest score is then selected as the final grasping pose. We conduct experiments on isolated and packed scenes to corroborate the effectiveness of our method. The results indicate that our method demonstrates competitive performance compared with the state-of-the-art without the need for either a full model or prior training.

arxiv情報

著者 Yuwei Wu,Weixiao Liu,Zhiyang Liu,Gregory S. Chirikjian
発行日 2023-05-24 06:33:10+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク