Learning to Grasp: from Somewhere to Anywhere

要約

ロボットによる把握はまだ部分的に解決されており、データ駆動型の技術が果たす役割が増大している学際的な問題です。
報酬がまばらな性質があるため、特に型破りな形態や高度に作動するエンドエフェクターの場合、把握データセットの自動生成が困難になります。
大規模なデータセットを取得するためのほとんどのアプローチは、人間が提供する多数のデモンストレーションや、十分に拡張できない高度に設計されたソリューションに依存しています。
品質ダイバーシティ (QD) 手法の最近の進歩により、さまざまなロボット形態を使用して特定の姿勢で物体を掴む方法を学習する方法が研究されました。
現在の研究では、QD で生成された軌道を新しいオブジェクトの姿勢に適応させるためのパイプラインが導入されています。
RGB-D データ ストリームを使用して、ビジョン パイプラインはまずターゲットのオブジェクトを検出し、その 6-DOF ポーズを予測し、最後にそれを追跡します。
自動的に生成されたリーチ アンド 把握軌道は、オブジェクト フレームに対して相対的に投影することで適応させることができます。
平行グリッパーを備えた Franka Research 3 と器用な SIH Schunk ハンドを備えた UR5 など、さまざまなロボット設定を備えたいくつかのオブジェクト上で、何百もの軌道が現実世界に展開されました。
オブジェクトのポーズに変換を適用したときに得られた伝達率は、オブジェクトのポーズがシミュレーションに一致したときに得られたものと一致し、提案されたアプローチの効率を示しています。

要約(オリジナル)

Robotic grasping is still a partially solved, multidisciplinary problem where data-driven techniques play an increasing role. The sparse nature of rewards make the automatic generation of grasping datasets challenging, especially for unconventional morphologies or highly actuated end-effectors. Most approaches for obtaining large-scale datasets rely on numerous human-provided demonstrations or heavily engineered solutions that do not scale well. Recent advances in Quality-Diversity (QD) methods have investigated how to learn object grasping at a specific pose with different robot morphologies. The present work introduces a pipeline for adapting QD-generated trajectories to new object poses. Using an RGB-D data stream, the vision pipeline first detects the targeted object, predicts its 6-DOF pose, and finally tracks it. An automatically generated reach-and-grasp trajectory can then be adapted by projecting it relatively to the object frame. Hundreds of trajectories have been deployed into the real world on several objects and with different robotic setups: a Franka Research 3 with a parallel gripper and a UR5 with a dexterous SIH Schunk hand. The transfer ratio obtained when applying transformation to the object pose matches the one obtained when the object pose matches the simulation, demonstrating the efficiency of the proposed approach.

arxiv情報

著者 François Hélénon,Johann Huber,Faïz Ben Amar,Stéphane Doncieux
発行日 2023-10-06 16:16:00+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.RO パーマリンク