Dynamic Grasping of Unknown Objects with a Multi-Fingered Hand

要約

自律型ロボットの重要な前提条件は、さまざまな物体を確実に把握できる能力です。
最先端のシステムのほとんどは、2 爪グリッパーなどの特殊なエンドエフェクターまたは単純なエンドエフェクターを採用しているため、操作するオブジェクトの範囲が制限されます。
さらに、私たちの世界の大部分が複雑で非構造的で動的である一方で、従来は構造化され完全に予測可能な環境が必要でした。
この論文では、動的把握を可能にし、外乱を補償するために、5 本指ハンドと視覚サーボ制御を統合する新しいアプローチを紹介します。
複数の指を備えたエンドエフェクターにより、可能な把握と操作可能なオブジェクトの多様性が向上します。
これは、深層学習ベースの生成把握ネットワークによって制御されます。
未知のターゲットオブジェクトの必要な仮想モデルは、視覚センサーデータを処理することによって繰り返し完成されます。
実際のハードウェアでの実験により、未知の動的ターゲットオブジェクトを確実に把握するシステムの能力が確認されています。
私たちの知る限り、これは未知の物体を複数の指で動的に把握する最初の方法です。
実験のビデオは https://youtu.be/5Ou6V_QMrNY でご覧いただけます。

要約(オリジナル)

An important prerequisite for autonomous robots is their ability to reliably grasp a wide variety of objects. Most state-of-the-art systems employ specialized or simple end-effectors, such as two-jaw grippers, which limit the range of objects to manipulate. Additionally, they conventionally require a structured and fully predictable environment while the vast majority of our world is complex, unstructured, and dynamic. This paper presents a novel approach to integrate a five-finger hand with visual servo control to enable dynamic grasping and compensate for external disturbances. The multi-fingered end-effector enhances the variety of possible grasps and manipulable objects. It is controlled by a deep learning based generative grasping network. The required virtual model of the unknown target object is iteratively completed by processing visual sensor data. Our experiments on real hardware confirm the system’s capability to reliably grasp unknown dynamic target objects. To the best of our knowledge, this is the first method to achieve dynamic multi-fingered grasping for unknown objects. A video of the experiments is available at https://youtu.be/5Ou6V_QMrNY.

arxiv情報

著者 Yannick Burkhardt,Qian Feng,Karan Sharma,Zhaopeng Chen,Alois Knoll
発行日 2024-02-08 11:21:55+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク