要約
器用な掴みは、高い掴み成功率で多様な掴み姿勢を生み出すことを目的としています。
物体の把握パラメータを直接予測する回帰ベースの方法は、高い成功率を達成する可能性がありますが、多くの場合、多様性に欠けます。
物体に応じた把持姿勢を生成する生成ベースの手法は、多くの場合、多様な把持を生成できますが、識別情報が不足しているため、高度な把持を成功させるには不十分です。
これを軽減するために、オブジェクト点群と手のパラメータ空間内で動作する、UGG という名前の統合された拡散ベースの器用な把握生成モデルを導入します。
当社の全トランス アーキテクチャは、物体、手、接点からの情報を統合し、接触点の新しい表現を導入して接触モデリングを改善します。
私たちのモデルの柔軟性と品質により、軽量の識別器の統合が可能になり、シミュレートされた識別データの恩恵を受け、高い多様性を維持しながら高い成功率を推進します。
把握生成以外にも、私たちのモデルは手の情報に基づいてオブジェクトを生成することもでき、オブジェクトの設計に貴重な洞察を提供し、生成モデルがオブジェクトをどのように認識するかを研究することができます。
私たちのモデルは、人間中心のオブジェクト設計を容易にしながら、大規模な DexGraspNet データセット上で最先端の器用な把握を実現し、器用な把握の研究に大きな進歩をもたらします。
私たちのプロジェクトページは https://jiaxin-lu.github.io/ugg/ です。
要約(オリジナル)
Dexterous grasping aims to produce diverse grasping postures with a high grasping success rate. Regression-based methods that directly predict grasping parameters given the object may achieve a high success rate but often lack diversity. Generation-based methods that generate grasping postures conditioned on the object can often produce diverse grasping, but they are insufficient for high grasping success due to lack of discriminative information. To mitigate, we introduce a unified diffusion-based dexterous grasp generation model, dubbed the name UGG, which operates within the object point cloud and hand parameter spaces. Our all-transformer architecture unifies the information from the object, the hand, and the contacts, introducing a novel representation of contact points for improved contact modeling. The flexibility and quality of our model enable the integration of a lightweight discriminator, benefiting from simulated discriminative data, which pushes for a high success rate while preserving high diversity. Beyond grasp generation, our model can also generate objects based on hand information, offering valuable insights into object design and studying how the generative model perceives objects. Our model achieves state-of-the-art dexterous grasping on the large-scale DexGraspNet dataset while facilitating human-centric object design, marking a significant advancement in dexterous grasping research. Our project page is https://jiaxin-lu.github.io/ugg/ .
arxiv情報
著者 | Jiaxin Lu,Hao Kang,Haoxiang Li,Bo Liu,Yiding Yang,Qixing Huang,Gang Hua |
発行日 | 2023-11-28 16:20:33+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google