An Economic Framework for 6-DoF Grasp Detection

要約

散らかった場所をロボットで把握することは、ロボット操作の基本的なタスクです。
この研究では、トレーニングにおけるリソースコストを節約し、同時に効果的な把握パフォーマンスを維持することを目的とした、6-DoF 把握検出のための経済的なフレームワークを提案します。
まず、高密度の監視が現在の SOTA 手法のボトルネックであり、トレーニング全体の過負荷を著しく妨げ、同時にトレーニングの収束を困難にしていることがわかりました。
上記の問題を解決するために、我々はまず効率的かつ効果的な把握のための経済監督パラダイムを提案する。
このパラダイムには、基本的に曖昧さなくキーラベルを選択する、よく設計された監督選択戦略と、選択後のトレーニングを可能にする経済的なパイプラインが含まれています。
さらに、経済的監視の恩恵を受けて、特定の把握に焦点を当てることができるため、特定の把握をより正確に生成するための対話型把握ヘッドと複合スコア推定で構成される焦点表現モジュールを考案します。
これらすべてを組み合わせて、EconomicGrasp フレームワークが提案されます。
私たちの広範な実験により、EconomicGrasp は SOTA 把握メソッドを平均で約 3AP 上回っており、リソース コストが非常に低く、トレーニング時間コストが約 1/4、メモリ コストが 1/8、ストレージ コストが 1/30 であることが示されています。
私たちのコードは https://github.com/iSEE-Laboratory/EconomicGrasp で入手できます。

要約(オリジナル)

Robotic grasping in clutters is a fundamental task in robotic manipulation. In this work, we propose an economic framework for 6-DoF grasp detection, aiming to economize the resource cost in training and meanwhile maintain effective grasp performance. To begin with, we discover that the dense supervision is the bottleneck of current SOTA methods that severely encumbers the entire training overload, meanwhile making the training difficult to converge. To solve the above problem, we first propose an economic supervision paradigm for efficient and effective grasping. This paradigm includes a well-designed supervision selection strategy, selecting key labels basically without ambiguity, and an economic pipeline to enable the training after selection. Furthermore, benefit from the economic supervision, we can focus on a specific grasp, and thus we devise a focal representation module, which comprises an interactive grasp head and a composite score estimation to generate the specific grasp more accurately. Combining all together, the EconomicGrasp framework is proposed. Our extensive experiments show that EconomicGrasp surpasses the SOTA grasp method by about 3AP on average, and with extremely low resource cost, for about 1/4 training time cost, 1/8 memory cost and 1/30 storage cost. Our code is available at https://github.com/iSEE-Laboratory/EconomicGrasp.

arxiv情報

著者 Xiao-Ming Wu,Jia-Feng Cai,Jian-Jian Jiang,Dian Zheng,Yi-Lin Wei,Wei-Shi Zheng
発行日 2024-07-11 10:19:48+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO パーマリンク