Extrinsic Manipulation on a Support Plane by Learning Regrasping

要約

外部操作は、ロボットが外部リソースを活用してオブジェクトを操作できるようにする技術であり、実用的だが困難なシナリオを提示します。
特に支持面上での外部操作のコンテキストでは、目的の最終的なオブジェクトのポーズを達成するために再把握が不可欠になります。
このプロセスには、一連の操作ステップとオブジェクトの安定した配置が含まれ、ロボットに把握スペースを提供します。
この課題に対処するために、私たちはディープ ニューラル ネットワークを使用して、平面上のオブジェクトのさまざまな配置を予測することに焦点を当てています。
点群を活用して、正確で多様な安定した配置を取得する、方向の生成、配置の調整、および配置の識別段階で構成されるフレームワークが提案されています。
トレーニングを容易にするために、安定したオブジェクトの配置とオブジェクト間の接触情報を含む大規模なデータセットが構築されます。
広範な実験を通じて、私たちのアプローチは最新技術を上回るパフォーマンスを示し、予測配置で 90.4\% の精度率と 81.3\% の多様性率を達成しました。
さらに、実際のロボット実験を通じてアプローチの有効性を検証し、単一ステップ内では容易に達成できない目標姿勢に物体を再掴みするための、予測された配置に基づいて連続的なピックアンドプレースステップを計算する機能を実証します。
ビデオとデータセットは https://sites.google.com/view/pmvlr2022/ で入手できます。

要約(オリジナル)

Extrinsic manipulation, a technique that enables robots to leverage extrinsic resources for object manipulation, presents practical yet challenging scenarios. Particularly in the context of extrinsic manipulation on a supporting plane, regrasping becomes essential for achieving the desired final object poses. This process involves sequential operation steps and stable placements of objects, which provide grasp space for the robot. To address this challenge, we focus on predicting diverse placements of objects on the plane using deep neural networks. A framework that comprises orientation generation, placement refinement, and placement discrimination stages is proposed, leveraging point clouds to obtain precise and diverse stable placements. To facilitate training, a large-scale dataset is constructed, encompassing stable object placements and contact information between objects. Through extensive experiments, our approach is demonstrated to outperform the start-of-the-art, achieving an accuracy rate of 90.4\% and a diversity rate of 81.3\% in predicted placements. Furthermore, we validate the effectiveness of our approach through real-robot experiments, demonstrating its capability to compute sequential pick-and-place steps based on the predicted placements for regrasping objects to goal poses that are not readily attainable within a single step. Videos and dataset are available at https://sites.google.com/view/pmvlr2022/.

arxiv情報

著者 Peng Xu,Zhiyuan Chen,Jiankun Wang,Max Q. -H. Meng
発行日 2023-07-12 01:40:48+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク