Learning Tri-mode Grasping for Ambidextrous Robot Picking

要約

雑然としたシーンでのオブジェクトのピッキングは、ロボット操作の分野で広く研究されていますが、両手利きのロボット ピッキングは依然として重要で困難な問題です。
異なる把持動作(つかむと吸引)の融合により、ロボットがピッキングできるオブジェクトの範囲が拡大し、把持動作と非把持動作(押す)の融合により、両手利きロボットのピッキング スペースが拡大できることがわかりました。
この論文では、さまざまな把持アクションの融合、および把持アクションと非把持アクションの融合による、両手利きのロボット ピッキング用のプッシュ グラスプ サクション (PGS) トライモード把持学習ネットワークを提案します。
PGS の掴みやすいブランチは点群を入力として取り、雑然としたシーンでのつかみと吸引の 6-DoF ピッキング構成は、マルチタスク点群学習によって生成されます。
深度画像入力を使用した非把握ブランチは、インスタンス セグメンテーション マップとプッシュ構成を生成し、把握アクションと協力して、シングル アーム スペースからのオブジェクトのピッキングを完了します。
PGS は実際のシーンでよく一般化し、最先端のピッキング パフォーマンスを実現します。

要約(オリジナル)

Object picking in cluttered scenes is a widely investigated field of robot manipulation, however, ambidextrous robot picking is still an important and challenging issue. We found the fusion of different prehensile actions (grasp and suction) can expand the range of objects that can be picked by robot, and the fusion of prehensile action and nonprehensile action (push) can expand the picking space of ambidextrous robot. In this paper, we propose a Push-Grasp-Suction (PGS) tri-mode grasping learning network for ambidextrous robot picking through the fusion of different prehensile actions and the fusion of prehensile action and nonprehensile aciton. The prehensile branch of PGS takes point clouds as input, and the 6-DoF picking configuration of grasp and suction in cluttered scenes are generated by multi-task point cloud learning. The nonprehensile branch with depth image input generates instance segmentation map and push configuration, cooperating with the prehensile actions to complete the picking of objects out of single-arm space. PGS generalizes well in real scene and achieves state-of-the-art picking performance.

arxiv情報

著者 Chenlin Zhou,Peng Wang,Wei Wei,Guangyun Xu,Fuyu Li,Jia Sun
発行日 2023-02-28 12:52:58+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク