要約
把持ネットワークアルゴリズムにとって、多数の3Dオブジェクトの把持データセットを生成することは重要な課題である。しかし、数百のオブジェクトに対する把持データセットの生成は、非常に時間がかかり、多くのストレージリソースを消費するため、アルゴリズムの反復と推進の妨げになります。点群把持ネットワークアルゴリズムの場合、ネットワーク入力は基本的にグリッパー座標系でオブジェクトと交差する把持領域の内部点群である。数百の物体について生成された把持データセットには、グリッパー座標系に基づく完全に一致した多数のグリッパー領域点群が存在するため、多数の物体から一致したグリッパー領域点群を取り除き、単一の物体に組み立てて把持データセットを生成することが可能であり、数百の物体について把持データセットを生成するという膨大な作業量を代替することができます。我々は、多数のオブジェクトの繰り返し特徴を有限の集合にマッピングする新しいアプローチを提案する。そのために、オブジェクトと交差するグリッパー領域点群をシミュレータから抽出する方法を提案し、形状が繰り返されるグリッパー空間領域点群を除去するグリッパー特徴フィルタを設計し、それらを単一のオブジェクトにアセンブルしている。実験の結果、数百個の物体の把持データセットを生成するのに比べ、新物体把持データセットの生成に要する時間は大幅に短縮され、実際の機械把持実験でも良好な結果を得ることができました。論文受理後、データおよびツールを公開する予定です。
要約(オリジナル)
For grasp network algorithms, generating grasp datasets for a large number of 3D objects is a crucial task. However, generating grasp datasets for hundreds of objects can be very slow and consume a lot of storage resources, which hinders algorithm iteration and promotion. For point cloud grasp network algorithms, the network input is essentially the internal point cloud of the grasp area that intersects with the object in the gripper coordinate system. Due to the existence of a large number of completely consistent gripper area point clouds based on the gripper coordinate system in the grasp dataset generated for hundreds of objects, it is possible to remove the consistent gripper area point clouds from many objects and assemble them into a single object to generate the grasp dataset, thus replacing the enormous workload of generating grasp datasets for hundreds of objects. We propose a new approach to map the repetitive features of a large number of objects onto a finite set.To this end, we propose a method for extracting the gripper area point cloud that intersects with the object from the simulator and design a gripper feature filter to remove the shape-repeated gripper space area point clouds, and then assemble them into a single object. The experimental results show that the time required to generate the new object grasp dataset is greatly reduced compared to generating the grasp dataset for hundreds of objects, and it performs well in real machine grasping experiments. We will release the data and tools after the paper is accepted.
arxiv情報
著者 | Xiao Hu,HangJie Mo,XiangSheng Chen,JinLiang Chen,Xiangyu Chen |
発行日 | 2023-03-06 05:45:08+00:00 |
arxivサイト | arxiv_id(pdf) |