Unknown Object Grasping for Assistive Robotics

要約

ロボット自律性の共有シナリオで未知の物体を把握するための新しいパイプラインを提案します。
完全自律型シナリオの最先端の手法は通常、特定のエンドエフェクターに最適化された学習ベースのアプローチであり、センサー入力から直接把握ポーズを生成します。
支援ロボティクスの分野では、代わりにユーザーの認知能力を利用して、満足度を高め、パフォーマンスを把握し、高レベルのタスク固有の目標と一致させることを目指しています。
一対のステレオ画像が与えられると、未知のオブジェクト インスタンスのセグメンテーションを実行し、対象オブジェクトの 3D 再構成を生成します。
共有制御では、ユーザーはロボットのエンドエフェクターを、物体を中心とする仮想半球を横切って希望するアプローチ方向に誘導します。
物理ベースの把握プランナーは、再構成上で最も安定した局所的な把握を見つけ出し、最終的にユーザーは共有制御によってこの把握に導かれます。
DLR EDAN プラットフォームでの実験では、10 個の未知の物体に対する 87% の把握成功率を報告し、構造化された乱雑な物体や棚から物体を把握するこの方法の機能を実証しました。

要約(オリジナル)

We propose a novel pipeline for unknown object grasping in shared robotic autonomy scenarios. State-of-the-art methods for fully autonomous scenarios are typically learning-based approaches optimised for a specific end-effector, that generate grasp poses directly from sensor input. In the domain of assistive robotics, we seek instead to utilise the user’s cognitive abilities for enhanced satisfaction, grasping performance, and alignment with their high level task-specific goals. Given a pair of stereo images, we perform unknown object instance segmentation and generate a 3D reconstruction of the object of interest. In shared control, the user then guides the robot end-effector across a virtual hemisphere centered around the object to their desired approach direction. A physics-based grasp planner finds the most stable local grasp on the reconstruction, and finally the user is guided by shared control to this grasp. In experiments on the DLR EDAN platform, we report a grasp success rate of 87% for 10 unknown objects, and demonstrate the method’s capability to grasp objects in structured clutter and from shelves.

arxiv情報

著者 Elle Miller,Maximilian Durner,Matthias Humt,Gabriel Quere,Wout Boerdijk,Ashok M. Sundaram,Freek Stulp,Jorn Vogel
発行日 2024-04-23 13:03:58+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク