RoboGrasp: A Universal Grasping Policy for Robust Robotic Control

要約

模倣学習と世界モデルは、一般化可能なロボット学習を進めることに大きな約束を示しており、ロボットグラストは正確な操作を達成するための重要な課題であり続けています。
既存の方法は、多くの場合、ロボットアームの状態データとRGB画像に大きく依存しており、特定のオブジェクトの形状または位置に過度に適合します。
これらの制限に対処するために、前処理された把握検出モデルをロボット学習と統合する普遍的な把握政策フレームワークであるRobograspを提案します。
オブジェクトの検出とセグメンテーションタスクから堅牢な視覚ガイダンスを活用することにより、Robograspは把握精度、安定性、および一般化を大幅に向上させ、少ないショット学習とグレーシングボックスプロンプトタスクで最大34%高い成功率を達成します。
拡散ベースの方法に基づいて、Robograspはさまざまなロボット学習パラダイムに適応でき、多様で複雑なシナリオ全体で正確で信頼できる操作を可能にします。
このフレームワークは、ロボット把握における現実世界の課題に取り組むためのスケーラブルで多用途のソリューションを表しています。

要約(オリジナル)

Imitation learning and world models have shown significant promise in advancing generalizable robotic learning, with robotic grasping remaining a critical challenge for achieving precise manipulation. Existing methods often rely heavily on robot arm state data and RGB images, leading to overfitting to specific object shapes or positions. To address these limitations, we propose RoboGrasp, a universal grasping policy framework that integrates pretrained grasp detection models with robotic learning. By leveraging robust visual guidance from object detection and segmentation tasks, RoboGrasp significantly enhances grasp precision, stability, and generalizability, achieving up to 34% higher success rates in few-shot learning and grasping box prompt tasks. Built on diffusion-based methods, RoboGrasp is adaptable to various robotic learning paradigms, enabling precise and reliable manipulation across diverse and complex scenarios. This framework represents a scalable and versatile solution for tackling real-world challenges in robotic grasping.

arxiv情報

著者 Yiqi Huang,Travis Davies,Jiahuan Yan,Xiang Chen,Yu Tian,Luhui Hu
発行日 2025-02-05 11:04:41+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO パーマリンク