MPGNet: Learning Move-Push-Grasping Synergy for Target-Oriented Grasping in Occluded Scenes

要約

この論文は、オクルージョンされたシーンにおけるターゲット指向の把握に焦点を当てています。ターゲット オブジェクトはバイナリ マスクによって指定され、目標は、できるだけ少ないロボット操作でターゲット オブジェクトを把握することです。
既存の方法のほとんどは、このタスクを完了するためにプッシュと把握の相乗効果に依存しています。
より強力なターゲット指向の把握パイプラインを提供するために、移動、押す、把握アクション間の相乗効果を学習するための 3 分岐ネットワークである MPGNet を紹介します。
また、3 つのアクションに対応する 3 つのポリシー ネットワークを含む MPGNet をトレーニングするための多段階トレーニング戦略も提案します。
私たちの方法の有効性は、シミュレーション実験と現実世界の実験の両方を通じて実証されています。

要約(オリジナル)

This paper focuses on target-oriented grasping in occluded scenes, where the target object is specified by a binary mask and the goal is to grasp the target object with as few robotic manipulations as possible. Most existing methods rely on a push-grasping synergy to complete this task. To deliver a more powerful target-oriented grasping pipeline, we present MPGNet, a three-branch network for learning a synergy between moving, pushing, and grasping actions. We also propose a multi-stage training strategy to train the MPGNet which contains three policy networks corresponding to the three actions. The effectiveness of our method is demonstrated via both simulated and real-world experiments.

arxiv情報

著者 Dayou Li,Chenkun Zhao,Shuo Yang,Ran Song,Xiaolei Li,Wei Zhang
発行日 2024-08-20 04:01:19+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク