要約
複雑で連続的な動きのあるシナリオにおいて、動く物体を動的に把持することは依然として困難である。強化学習(RL)は、そのクローズドループの特性を生かし、様々なロボット操作タスクに適用されてきた。しかし、既存のRLベースの手法は、視覚表現の強化の可能性を十分に追求していない。本レターでは、動く物体を効果的かつ確実に把持するために、Grasps As Points for RL (GAP-RL)と呼ばれる新しいフレームワークを提案する。高速な領域ベースの把持検出器を実装することで、6次元の把持ポーズをガウス点に変換し、元の物体の点特徴よりも抽象度の高い把持特徴を抽出することで、把持エンコーダを構築する。さらに、把持可能領域を探索するGraspable Region Explorerを開発することで、よりスムーズな把持生成と安定したポリシーの実行を可能にする。その性能を評価するために、様々な複雑な動きをする物体を含む動的把持ベンチマークをシミュレートする。実験の結果、本手法は他のベースラインと比較して、新しい物体や未知の動的動作に対して効果的に汎化することが実証された。実世界での実験により、本フレームワークのシミュレーションから実世界への移植性をさらに検証する。
要約(オリジナル)
Dynamic grasping of moving objects in complex, continuous motion scenarios remains challenging. Reinforcement Learning (RL) has been applied in various robotic manipulation tasks, benefiting from its closed-loop property. However, existing RL-based methods do not fully explore the potential for enhancing visual representations. In this letter, we propose a novel framework called Grasps As Points for RL (GAP-RL) to effectively and reliably grasp moving objects. By implementing a fast region-based grasp detector, we build a Grasp Encoder by transforming 6D grasp poses into Gaussian points and extracting grasp features as a higher-level abstraction than the original object point features. Additionally, we develop a Graspable Region Explorer for real-world deployment, which searches for consistent graspable regions, enabling smoother grasp generation and stable policy execution. To assess the performance fairly, we construct a simulated dynamic grasping benchmark involving objects with various complex motions. Experiment results demonstrate that our method effectively generalizes to novel objects and unseen dynamic motions compared to other baselines. Real-world experiments further validate the framework’s sim-to-real transferability.
arxiv情報
著者 | Pengwei Xie,Siang Chen,Qianrun Chen,Wei Tang,Dingchang Hu,Yixiang Dai,Rui Chen,Guijin Wang |
発行日 | 2024-10-04 15:24:31+00:00 |
arxivサイト | arxiv_id(pdf) |