AnyGrasp: Robust and Efficient Grasp Perception in Spatial and Temporal Domains

要約

掴みやすい操作の基礎として、ロボットが人間と同じくらいしっかりと掴めるようにすることが重要です。
私たちの生来の把握システムは、迅速、正確、柔軟で、空間的および時間的領域にわたって継続的です。
ロボットの把握に関するこれらの特性をすべてカバーする既存の方法はほとんどありません。
この論文では、平行グリッパーを使用してロボットにこれらの能力を可能にする把握知覚用の AnyGrasp を提案します。
具体的には、時空間領域における実際の知覚と分析ラベルを使用した緻密な監視戦略を開発します。
オブジェクトの重心の追加認識が学習プロセスに組み込まれ、把握の安定性が向上します。
観測全体にわたる把握対応を利用することで、動的な把握追跡が可能になります。
私たちのモデルは、正確な 7-DoF、緻密で時間的に滑らかな把握ポーズを効率的に生成でき、大きな深度センシング ノイズに対して堅牢に機能します。
AnyGrasp を使用すると、300 個以上の目に見えない物体が入ったゴミ箱を片付ける成功率が 93.3% に達しました。これは、制御された条件下での人間の被験者と同等です。
シングルアーム システムでは、1 時間あたり 900 を超える平均ピッキング数が報告されています。
ダイナミックな把握では、水中で泳ぐロボットの魚を捕まえるデモンストレーションを行います。
私たちのプロジェクト ページは https://graspnet.net/anygrasp.html にあります。

要約(オリジナル)

As the basis for prehensile manipulation, it is vital to enable robots to grasp as robustly as humans. Our innate grasping system is prompt, accurate, flexible, and continuous across spatial and temporal domains. Few existing methods cover all these properties for robot grasping. In this paper, we propose AnyGrasp for grasp perception to enable robots these abilities using a parallel gripper. Specifically, we develop a dense supervision strategy with real perception and analytic labels in the spatial-temporal domain. Additional awareness of objects’ center-of-mass is incorporated into the learning process to help improve grasping stability. Utilization of grasp correspondence across observations enables dynamic grasp tracking. Our model can efficiently generate accurate, 7-DoF, dense, and temporally-smooth grasp poses and works robustly against large depth-sensing noise. Using AnyGrasp, we achieve a 93.3% success rate when clearing bins with over 300 unseen objects, which is on par with human subjects under controlled conditions. Over 900 mean-picks-per-hour is reported on a single-arm system. For dynamic grasping, we demonstrate catching swimming robot fish in the water. Our project page is at https://graspnet.net/anygrasp.html

arxiv情報

著者 Hao-Shu Fang,Chenxi Wang,Hongjie Fang,Minghao Gou,Jirong Liu,Hengxu Yan,Wenhai Liu,Yichen Xie,Cewu Lu
発行日 2023-06-06 08:56:37+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク