DexGrasp Anything: Towards Universal Robotic Dexterous Grasping with Physics Awareness

要約

あらゆるオブジェクトをつかむことができる器用な手は、汎用具体化されたインテリジェントロボットの開発に不可欠です。
しかし、器用な手の自由度が高く、オブジェクトの膨大な多様性のために、高品質で使いやすい把握ポーズを堅牢な方法で生成することは重要な課題です。
このホワイトペーパーでは、DexGrasp Anymentを紹介します。これは、拡散ベースの生成モデルのトレーニング段階とサンプリングフェーズの両方に物理的制約を効果的に統合し、ほぼすべてのオープンデータセットで最先端のパフォーマンスを達成する方法です。
さらに、15Kを超える異なるオブジェクトの340万を超える多様な把握ポーズを含む新しい器用な握るデータセットを提示し、普遍的な器用な把握を前進させる可能性を示しています。
メソッドのコードとデータセットはまもなく公開されます。

要約(オリジナル)

A dexterous hand capable of grasping any object is essential for the development of general-purpose embodied intelligent robots. However, due to the high degree of freedom in dexterous hands and the vast diversity of objects, generating high-quality, usable grasping poses in a robust manner is a significant challenge. In this paper, we introduce DexGrasp Anything, a method that effectively integrates physical constraints into both the training and sampling phases of a diffusion-based generative model, achieving state-of-the-art performance across nearly all open datasets. Additionally, we present a new dexterous grasping dataset containing over 3.4 million diverse grasping poses for more than 15k different objects, demonstrating its potential to advance universal dexterous grasping. The code of our method and our dataset will be publicly released soon.

arxiv情報

著者 Yiming Zhong,Qi Jiang,Jingyi Yu,Yuexin Ma
発行日 2025-03-11 10:21:50+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.RO パーマリンク