DMFC-GraspNet: Differentiable Multi-Fingered Robotic Grasp Generation in Cluttered Scenes

要約

ロボットによる把握は、ロボット工学における物体操作に必要な基本的なスキルです。
人間の手の構造を模倣した多指ロボットハンドは、複雑な物体操作を実行できる可能性があります。
それにもかかわらず、多指ロボットによる把握のための現在の技術は、推論時間ごとに 1 つの把握のみを予測することが多く、計算効率とその汎用性、つまり単峰性の把握分布が制限されています。
この論文では、この課題に対処するための 3 つの主な貢献を備えた微分可能なマルチフィンガー把握生成ネットワーク (DMFC-GraspNet) を提案します。
まず,新しいニューラル把握プランナを提案し,新しい把握表現を予測して,多用途で緻密な把握予測を可能にする。
第二に、多指ロボットハンドの高密度ラベル付けのためのシーン作成およびラベルマッピング方法が開発され、これによりグラウンドトゥルース把握の高密度な関連付けが可能になります。
第三に、教師あり損失と微分可能な衝突損失の両方と一般化された Q 1 把握メトリック損失を備えた前方後方自動微分アプローチを使用して、DMFC-GraspNet をエンドツーエンドでトレーニングすることを提案します。
提案されたアプローチは、Shadow Dexterous Hand on Mujoco シミュレーションを使用して評価され、さまざまな損失関数の選択によって除去されます。
この結果は、多用途かつ高密度の把握を予測し、多指ロボットによる把握の分野を進歩させる上で、提案されたアプローチの有効性を示しています。

要約(オリジナル)

Robotic grasping is a fundamental skill required for object manipulation in robotics. Multi-fingered robotic hands, which mimic the structure of the human hand, can potentially perform complex object manipulation. Nevertheless, current techniques for multi-fingered robotic grasping frequently predict only a single grasp for each inference time, limiting computational efficiency and their versatility, i.e. unimodal grasp distribution. This paper proposes a differentiable multi-fingered grasp generation network (DMFC-GraspNet) with three main contributions to address this challenge. Firstly, a novel neural grasp planner is proposed, which predicts a new grasp representation to enable versatile and dense grasp predictions. Secondly, a scene creation and label mapping method is developed for dense labeling of multi-fingered robotic hands, which allows a dense association of ground truth grasps. Thirdly, we propose to train DMFC-GraspNet end-to-end using using a forward-backward automatic differentiation approach with both a supervised loss and a differentiable collision loss and a generalized Q 1 grasp metric loss. The proposed approach is evaluated using the Shadow Dexterous Hand on Mujoco simulation and ablated by different choices of loss functions. The results demonstrate the effectiveness of the proposed approach in predicting versatile and dense grasps, and in advancing the field of multi-fingered robotic grasping.

arxiv情報

著者 Philipp Blättner,Johannes Brand,Gerhard Neumann,Ngo Anh Vien
発行日 2023-08-16 20:53:23+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO パーマリンク