PEGG-Net: Background Agnostic Pixel-Wise Efficient Grasp Generation Under Closed-Loop Conditions

要約

物体に近接して閉ループ把持を実行するには、広い視野が必要です。
ただし、このような画像は、特に初期段階でカメラが対象物から遠く離れている場合に、大量の不要な背景情報を必然的にもたらし、把握ネットワークのパフォーマンスを低下させます。
この問題に対処するために、リアルタイムのピクセル単位のロボット把持生成ネットワークである新しいPEGG-Netを設計します。
提案された軽量ネットワークは、本質的に、把握精度を低下させる可能性のあるバックグラウンド ノイズを除去することを学習できます。
提案された PEGG-Net は、Cornell データセット (98.9%) と Jacquard データセット (93.8%) の両方で最先端のパフォーマンスを向上させます。
実際のテストでは、PEGG-Net は、動的環境で 480×480 の画像サイズを使用して、最大 50Hz での閉ループ把握をサポートできます。
トレーニングされたモデルは、複雑な幾何学的形状、家庭用オブジェクト、ワークショップツールを備えたこれまでにないオブジェクトにも一般化され、実世界の把持実験で 91.2% の全体的な把持成功率を達成しました。

要約(オリジナル)

Performing closed-loop grasping at close proximity to an object requires a large field of view. However, such images will inevitably bring large amounts of unnecessary background information, especially when the camera is far away from the target object at the initial stage, resulting in performance degradation of the grasping network. To address this problem, we design a novel PEGG-Net, a real-time, pixel-wise, robotic grasp generation network. The proposed lightweight network is inherently able to learn to remove background noise that can reduce grasping accuracy. Our proposed PEGG-Net achieves improved state-of-the-art performance on both Cornell dataset (98.9%) and Jacquard dataset (93.8%). In the real-world tests, PEGG-Net can support closed-loop grasping at up to 50Hz using an image size of 480×480 in dynamic environments. The trained model also generalizes to previously unseen objects with complex geometrical shapes, household objects and workshop tools and achieved an overall grasp success rate of 91.2% in our real-world grasping experiments.

arxiv情報

著者 Zhiyang Liu,Haozhe Wang,Lei Zhou,Huan Yin,Marcelo H Ang Jr
発行日 2023-02-15 14:27:55+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク