A Surprisingly Efficient Representation for Multi-Finger Grasping

要約

複数の指を使って物体を掴むという問題は、近年大きな注目を集めています。
しかし、実際の乱雑な環境で多数の見慣れないオブジェクトを処理するのは依然として困難です。
この研究では、複数の指の把握空間に効果的にマッピングできる表現を提案します。
この表現に基づいて、数百から数千のトレーニング サンプルのみを使用して、さまざまな複数指の掴みポーズに対する正確な掴み品質スコアを生成する単純な意思決定モデルを開発します。
私たちの表現が実際のロボット上で良好に機能し、トレーニング後の成功率は、現実世界でわずか 500 回の把握試行で 78.64%、4500 回の把握試行で 87% に達することを示しています。
さらに、マルチフィンガーハンドを使用した人間とロボットの動的なハンドオーバーシナリオでは、84.51% の成功率を達成しました。

要約(オリジナル)

The problem of grasping objects using a multi-finger hand has received significant attention in recent years. However, it remains challenging to handle a large number of unfamiliar objects in real and cluttered environments. In this work, we propose a representation that can be effectively mapped to the multi-finger grasp space. Based on this representation, we develop a simple decision model that generates accurate grasp quality scores for different multi-finger grasp poses using only hundreds to thousands of training samples. We demonstrate that our representation performs well on a real robot and achieves a success rate of 78.64% after training with only 500 real-world grasp attempts and 87% with 4500 grasp attempts. Additionally, we achieve a success rate of 84.51% in a dynamic human-robot handover scenario using a multi-finger hand.

arxiv情報

著者 Hengxu Yan,Hao-Shu Fang,Cewu Lu
発行日 2024-08-05 13:25:29+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク