要約
視覚的なフィードバックを通じて目に見えない多関節オブジェクトを操作することは、実際のロボットにとって重要ではありますが、困難な作業です。
既存の学習ベースのソリューションは、操作ポリシーをガイドするための視覚アフォーダンス学習やその他の事前トレーニング済み視覚モデルに主に焦点を当てており、現実世界のシナリオにおける新しいインスタンスの課題に直面しています。
この論文では、デモなしで多関節オブジェクトの操作方法を学習できる、新しいパーツガイド付き 3D RL フレームワークを提案します。
2D セグメンテーションと 3D RL の長所を組み合わせて、RL ポリシー トレーニングの効率を向上させます。
実際のロボットに対するポリシーの安定性を向上させるために、フレーム一貫性のある不確実性を考慮したサンプリング (FUS) 戦略を設計し、圧縮された階層的な 3D 表現を取得します。
さらに、単一の汎用性の高い RL ポリシーは、シミュレーションで複数の多関節オブジェクト操作タスクで同時にトレーニングでき、新しいカテゴリやインスタンスに対して優れた汎用性を示します。
実験結果は、シミュレーションと現実世界の両方の設定におけるフレームワークの有効性を示しています。
私たちのコードは https://github.com/THU-VCLab/Part-Guided-3D-RL-for-Sim2Real-Articulated-Object-Manipulation で入手できます。
要約(オリジナル)
Manipulating unseen articulated objects through visual feedback is a critical but challenging task for real robots. Existing learning-based solutions mainly focus on visual affordance learning or other pre-trained visual models to guide manipulation policies, which face challenges for novel instances in real-world scenarios. In this paper, we propose a novel part-guided 3D RL framework, which can learn to manipulate articulated objects without demonstrations. We combine the strengths of 2D segmentation and 3D RL to improve the efficiency of RL policy training. To improve the stability of the policy on real robots, we design a Frame-consistent Uncertainty-aware Sampling (FUS) strategy to get a condensed and hierarchical 3D representation. In addition, a single versatile RL policy can be trained on multiple articulated object manipulation tasks simultaneously in simulation and shows great generalizability to novel categories and instances. Experimental results demonstrate the effectiveness of our framework in both simulation and real-world settings. Our code is available at https://github.com/THU-VCLab/Part-Guided-3D-RL-for-Sim2Real-Articulated-Object-Manipulation.
arxiv情報
著者 | Pengwei Xie,Rui Chen,Siang Chen,Yuzhe Qin,Fanbo Xiang,Tianyu Sun,Jing Xu,Guijin Wang,Hao Su |
発行日 | 2024-04-26 10:18:17+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google